• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick
  • Auch in diesem Jahr möchten wir auf unserer Webseite mit einem passenden Banner etwas weihnachtliche Stimmung verbreiten. Jeder Apfeltalker kann, darf und sollte uns einen Banner-Entwurf zusenden, wie und wo das geht, könnt Ihr hier nachlesen --> Klick

Hier geht es um Fragen & Antworten rund um den neuen iMac (Late 2012)

speedlimiter

Reinette Coulon
Registriert
28.06.09
Beiträge
936
GTX 675MX im iMac 2012 besser als angenommen?

Beim Vergleich der beiden Grafikoptionen 675MX vs. 680MX ist mir jetzt schon in mehreren GPU-Z Screenshots aufgefallen, dass die 675MX mehr Shader besitzt, als sie es laut Spezifikationen von Nvidia haben sollte. Nvidia schreibt 960, die Bilder wie z.B. das http://forums.macrumors.com/attachment.php?attachmentid=386611&d=1356812416 zeigen 1344. Damit würde sie eher der GeForce GTX 680M entsprechen und mit mehr Shader-Power sollte sie auch wesentlich näher an der 680MX liegen. Übrigens liefert auch das Nvidia-eigene Control Panel diese Shaderzahl zurück.

Kann das mal jemand der Glücklichen mit dem neuen 27" iMac überprüfen? Vielleicht wären ein paar Benchmarkvergleiche auch an dieser Stelle sinnvoll. Die Systeme lassen sich ja recht gut vergleichen, da die restliche Hardware fast identisch ist bis auf i5/ i7 Option.

Hier kann man es auch nochmal in beiden Screenies sehen: http://forums.macrumors.com/showthread.php?t=1524317&page=3
 

Kuranai

Alkmene
Registriert
20.09.09
Beiträge
34
Erstmal sollten wir und bei den Zahlen einig werden, Die 680mx sollte 1536 CUDA cores haben.
680mx: 1536
(680m): 1344
675mx: 960 (hier die Frage: stecken 1344 drinn?)

Meine Benchmarkergebnisse mit der 680mx (i7 3,4) poste ich nachher, sobald after effects mir die Gelegenheit gibt.
 

speedlimiter

Reinette Coulon
Registriert
28.06.09
Beiträge
936
Erstmal sollten wir und bei den Zahlen einig werden, Die 680mx sollte 1536 CUDA cores haben.

Sorry, das ist natürlich richtig. Mir geht es nur darum, ob die 675MX im iMac wirklich 1344 hat. Das würde sie näher an die 680MX heranbringen und mMn lohnt sich der Aufpreis für letztere dann nur noch bedingt.
 

Baergolas

Pomme Etrangle
Registriert
25.03.07
Beiträge
899
Auch wenn die Differenz der Cudas Cores zwischen 675mx und 680mx geringer ausfällt als erwartet - die 675mx hat in der Tat 1344 - spricht doch noch einiges mehr für die 680mx, wie die doppelte PCI-Bandbreite, Texturfüllrate und Grafikspeicher und der höhere Systemtakt sowie Speicherbandbreite.

Over all ist der Aufpreis zur 680mx m.E. gut angelegt. Es dürfte mehr für das Upgrade zur 680mx sprechen, als vom i5 zum i7.
 

speedlimiter

Reinette Coulon
Registriert
28.06.09
Beiträge
936
..., wie die doppelte PCI-Bandbreite, ...

PCIe 3.0 haben beide. Denn auch da weicht die im iMac verbaute 675 von den originalen Spezifikationen ab.

Der GPU-Takt und Speichertakt sind ebenfalls identisch.

Bleiben 192 Shader u. 1 GB VRAM für 200 €.
 
Zuletzt bearbeitet:

Kuranai

Alkmene
Registriert
20.09.09
Beiträge
34
Ob die Bandbreiten sich unterscheiden kann man nun schlecht prüfen, aber was es für die Praxis bedeutet sollten Benchmarks klären können.
Was ist denn hier überhaupt sinnvoll und vergleichbar?
Habe nur Xbench mit 230 Punten (292 fps) im Open GL Test
und Cinebench mit 45,5 fps

EDIT:
Sinnvoll ist vielleicht noch CUDA-Z. Ist kein wirkliches benchmark, da es nicht die maximal oder Durchschnittswerte ausgibt, aber es liefert Vergleichswerte:

Core Information
----------------
Name: GeForce GTX 680MX

Memory Information
------------------
Total Global: 2047.69 MiB
Bus Width: 256 bits
Clock Rate: 2500 MHz
Error Correction: No
L2 Cache Size: 48 KiB
Shared Per Block: 48 KiB
Pitch: 2048 MiB
Total Constant: 64 KiB
Texture Alignment: 512 B
Texture 1D Size: 65536
Texture 2D Size: 65536 x 65536
Texture 3D Size: 4096 x 4096 x 4096
GPU Overlap: Yes
Map Host Memory: Yes
Unified Addressing: No
Async Engine: Yes, Bidirectional

Performance Information
-----------------------
Memory Copy
Host Pinned to Device: 7682.41 MiB/s
Host Pageable to Device: 5972.92 MiB/s
Device to Host Pinned: 7462.12 MiB/s
Device to Host Pageable: 5758.7 MiB/s
Device to Device: 40.7802 GiB/s
GPU Core Performance
Single-precision Float: 937.468 Gflop/s
Double-precision Float: 63.7036 Gflop/s
32-bit Integer: 266.438 Giop/s
24-bit Integer: 265.894 Giop/s

Generated: Sun Feb 17 19:23:31 2013
 
Zuletzt bearbeitet:

gzimdars

Bismarckapfel
Registriert
06.11.09
Beiträge
144
für die Praxis würd ich sagen, wenn Gamer dann auf keinesfall unter die 680mx gehen... Battlefield 3 auf Setting "Hoch" geht dann butterweich. "Ultra" geht auch noch aber dann merkt man schon die Grenzen.

Kein Gamer -> holt euch das kleinste Modell.

Grafiker -> keine Ahnung...
 

Taffi

Boskoop
Registriert
11.02.11
Beiträge
39
Core Information
----------------
Name: GeForce GTX 675MX
Compute Capability: 3.0
Clock Rate: 719 MHz
PCI Location: 0:1:0
Multiprocessors: 7 (1344 Cores)
Therds Per Multiproc.: 2048
Warp Size: 32
Regs Per Block: 65536
Threads Per Block: 1024
Threads Dimensions: 1024 x 1024 x 64
Grid Dimensions: 2147483647 x 65535 x 65535
Watchdog Enabled: Yes
Integrated GPU: No
Concurrent Kernels: Yes
Compute Mode: Default


Memory Information
------------------
Total Global: 1023.69 MiB
Bus Width: 256 bits
Clock Rate: 2500 MHz
Error Correction: No
L2 Cache Size: 48 KiB
Shared Per Block: 48 KiB
Pitch: 2048 MiB
Total Constant: 64 KiB
Texture Alignment: 512 B
Texture 1D Size: 65536
Texture 2D Size: 65536 x 65536
Texture 3D Size: 4096 x 4096 x 4096
GPU Overlap: Yes
Map Host Memory: Yes
Unified Addressing: No
Async Engine: Yes, Bidirectional


Performance Information
-----------------------
Memory Copy
Host Pinned to Device: 8069.95 MiB/s
Host Pageable to Device: 6232.18 MiB/s
Device to Host Pinned: 8024.62 MiB/s
Device to Host Pageable: 5637.03 MiB/s
Device to Device: 44.7964 GiB/s
GPU Core Performance
Single-precision Float: 850.387 Gflop/s
Double-precision Float: 62.7305 Gflop/s
32-bit Integer: 256.438 Giop/s
24-bit Integer: 267.385 Giop/s


-------------------------
Meins ;o) i5 FD 675
 

speedlimiter

Reinette Coulon
Registriert
28.06.09
Beiträge
936
GTX675MX GTX680MX
GPU 720 MHz 720 MHz
RAM 2500 MHz 2500 MHz
Bus 256 bit 256 bit
PCI 3.0 3.0
Shader 1344 1536
VRAM 1 GB 2 GB

So schaut es also derzeit aus, was die Programme so auslesen. Ob das stimmt, sei mal dahingestellt. Das macht zumindest die iMac-Option MD096D/A preis-/leistungsmäßig wesentlich interessanter gegenüber der MD095D/A, auch wenn man nicht auf die 680MX aufrüstet.
 

Baergolas

Pomme Etrangle
Registriert
25.03.07
Beiträge
899
@Kuranai & Taffi: Cuda-Z unter Windows oder Mac OS?

@speedlimiter: wenn das alles stimmen würde, wäre es das erste mal, dass Apple die von ihnen verbauten GPU`s gegenüber der "Handelsware" frisiert. Bisher liefen sie immer eher gedrosselt. Aber die Werte der 675MX sind in der Tat nicht übel...ist eher eine 680MX mit (nur) 1 GB GDDR^^.
 

speedlimiter

Reinette Coulon
Registriert
28.06.09
Beiträge
936
wenn das alles stimmen würde, wäre es das erste mal, dass Apple die von ihnen verbauten GPU`s gegenüber der "Handelsware" frisiert.

Die 650GT im aktuellen MBPR läuft auch mit höheren Taktraten als es Nvidia in seine Spezifikationen schreibt. Und wenn ich mich recht erinnere, gab es solche Ausnahmen schonmal bei anderen Mac-Modellen.
 

Taffi

Boskoop
Registriert
11.02.11
Beiträge
39
@Kuranai & Taffi: Cuda-Z unter Windows oder Mac OS?

@speedlimiter: wenn das alles stimmen würde, wäre es das erste mal, dass Apple die von ihnen verbauten GPU`s gegenüber der "Handelsware" frisiert. Bisher liefen sie immer eher gedrosselt. Aber die Werte der 675MX sind in der Tat nicht übel...ist eher eine 680MX mit (nur) 1 GB GDDR^^.

Unter Mac OS X
 

iMori

Idared
Registriert
12.10.12
Beiträge
24
Hallo,

hat irgendwer schon erfahrungen gemacht auf dem iMac mit Autodesk Inventor oder vergleichbaren Programmen, die dann auf der Windows Ebene laufen?

Mich reizt es ja schon sehr den 27" iMac zu kaufen, allerdings habe ich bisher noch keine Erfahrungen mit Apple Desktops geschweige denn MacBooks, bin bisher nur mit dem ipad und iphone vertraut.

Würde mich freuen wenn jemand mal berichten könnte bzgl. Inventor oder ob es überhaupt sinnvoll ist Windows auf dem imach zu spielen, habe schon beim Überfliegen gelesen das er zur Zeit per Bootcamp nicht möglich ist, ist das so korrekt?

Bedanke mich schon mal für alle hilfreichen Hinweise!
 

speedlimiter

Reinette Coulon
Registriert
28.06.09
Beiträge
936
... habe schon beim Überfliegen gelesen das er zur Zeit per Bootcamp nicht möglich ist, ist das so korrekt?

Bootcamp ist derzeit nur in der Konfiguration mit dem 3 TB Fusion Drive nicht ohne größeren Aufwand möglich. Bei allen anderen iMac Varianten geht Bootcamp problemlos.
 

StevieStifler

Jonagold
Registriert
03.02.13
Beiträge
23
Um nochmal zum Thema GTX675MX zurück zukommen.
Ich habe mich jetzt für den MD096D/A entschieden da dieser für mich als gelegenheits Zocker vollkommen ausreicht.
Die GTX675MX liegt leistungsmäßig knapp über meiner alten Desktop GTX560 und diese hat mir fürs Zocken immer komplett ausgereicht.
Wäre allerdings trotzdem einen coole Sache wenn die 675MX auf dem Niveau einer 680m liegt.
 

Thomi1208

Granny Smith
Registriert
09.01.13
Beiträge
15
Ich besitze nun schon 2 Wochen meinen iMac 27" late 2012 und bin absolut zufrieden. Ich habe jedoch eine Frage und leider noch nirgends eine Antwort dazu gefunden. Ich habe ja nun von Beginn an Mountain Lion drauf und keine CD/DVD erhalten. Nun möchte ich gerne einen Stick mit dem Betriebssystem erstellen, dass ich falls mein Mac mal krachen geht, eine Sicherung habe. Ich hab zwar auch mal gelesen, dass sich der Mac das System selber laden könnte, jedoch würde das bei meiner Leitung Tage dauern :-D