• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Na, habt Ihr genügend in Stoffen geschwelgt? Dann könntet Ihr Euch jetzt die zahlreichen Einsendungen dieses Monats anschauen und entscheiden, welches Foto davon Euch am Besten gefällt. Hier geht es lang zur Abstimmung --> Klick

Macbook Pro Retina, auf Haswell warten?

picxar

deaktivierter Benutzer
Registriert
06.09.11
Beiträge
376
Ja dann passt es ja, mehr Code=mehr Umfang=mehr Leistung wird benötigt
 

Moriarty

Pommerscher Krummstiel
Registriert
17.05.04
Beiträge
3.057
Die Frage ist nur, ob das ausnahmslos gilt. Hat z.B. die App "Rechner" im aktuellen OS X auch zehnmal mehr Code als der Taschenrechner aus OS X 10.1?

Und, könnte man theoretisch den Code von Anwendungen vereinfachen und optimieren, macht es aber in der Praxis nicht, weil man ja weiss, dass er ruhig 10x umfangreicher sein darf als in der Version von vor 10 Jahren?

(Also eine produktpolitische Entscheidung - warum sollen wir extra Zeit für Optimierungen reinstecken, wenn wir doch eigentlich wollen, dass die Leute in drei Jahren das Gefühl haben, ihr Rechner sei zu langsam für aktuelle Programme?)

--> da glaube ich, dass es ein wichtiger Faktor ist!
 

picxar

deaktivierter Benutzer
Registriert
06.09.11
Beiträge
376
Das Problem ist das wir das nicht Wissen, bin leider kein Programmierer bei google etc. um das beurteilen zu können...Die Programmiersprachen haben sich auch verändert...Ein großer Punkt wird aber die Optimierung sein, denke das viele Programmierer garnicht mehr die Zeit haben entsprechende Codes zu optimieren, heutzutage muss ja alles schnell schnell gehen, wenns nicht läuft wird eben danach ein Update nachgereicht...Aber die Handys verbrauchen ja auch immer mehr Ram...
 

jFx

Carmeliter-Renette
Registriert
23.01.11
Beiträge
3.292
So nun aber wieder zum Thema.

Jetzt bitte Butter an den Fisch.

In der Aktuellen CT wollte ich euch nur mal empfehlen zu lesen. Da ist der erste 14" Notebook mit der netten Iris Pro 5200 im Test. Soweit so gut. Nur liegt eben diese zwischen einer M630 und einer M650. Nur was hat es immer auf sich wenn man liest, dass Apple mehr GPU Power bei Intel bestellt habe. Ist das dann die 5200er oder eine gepimpte Version der 5200?? Denn ich möchte noch mal daran errinern. Die M650 im aktuellen ist flotter als die normale M650.

Danke
 

Necrosis

Goldparmäne
Registriert
14.10.10
Beiträge
558
Sorry, noch ein OT dazu:
picxar, es fällt mir auf, dass du zu vielen Themen deine feste Meinung hast, obwohl du schlussendlich nicht über viel Wissen in dem Themengebiet verfügst. Deshalb läuft es mir manchmal kalt den Rücken herunter, wenn ich solche allgemeinen Vermutungen lese.

Vielleicht wäre es besser, diese Beiträge eher fragend zu formulieren, mit dem Ziel, mehr Wissen zu der Problematik zu sammeln und entwickeln. Es gibt hier einige Menschen, welche viel Ahnung von solchen Fragen haben, oder zumindest einen großen Teil ihres Lebens mit Entwicklungen innerhalb dieser Technologien verbringen.

Es gibt, wie hier schon angesprochen, verschiedene Ebenen, auf welchen Entwicklungen stattfinden können. Als Endnutzer erkennt man nicht unbedingt, welche Neuentwicklungen und wissenschaftliche Fortschritte in einem Produkt steckt, völlig egal ob Hardware oder Software. Ich kenne mich mit Hardware halbwegs aus, aber mit Software habe ich definitiv mehr am Hut.

Grundsätzlich ist es so, dass Anforderungen, welche neuartige Software (oder die Idee dazu) stellt, die Hardware-Entwicklung durchaus triggern können. Wenn Potential und Bedarf gesehen wird, wird eine solche Entwicklung vorangetrieben. Andererseits kann mit leistungsfähigerer Hardware auch weitergehend experimentiert und zu Projekten inspiriert werden, welche zuvor überhaupt nicht möglich gewesen wären. Die Entwicklung geht Hand in Hand, es ist ein Netz von Abhängigkeiten. Ich zumindest bin nicht in der Lage zu sagen, welche der beiden Lager letztendlich die treibende Kraft ist, aber meine Vermutung ist, dass es eben keine einzelne treibende Kraft gibt.

Viele Systeme und Konzepte, welche heute auf dem Markt sind oder sich in Entwicklung befinden, wären auch ohne weiteres auf früherer Hardware realisierbar gewesen. Die Entwicklung neuartiger Programmierkonzepte geht im Moment vergleichsweise eher ruhig vonstatten. Die Werkzeuge, welche man für die Systeme benötigt und verwendet, sind größtenteils schon länger vorhanden. Einiges an Fortschritt gab und gibt es in der Visualisierungstechnologie und der Human-Computer-Interaction.

In der Hardwarebranche ist es, wenn es um Leistungsfähigkeit geht, eher ein technologisches Problem, sich weiterzuentwickeln. Genau so sieht es bei der Energiespeicher-Technologie aus. In der Software-Entwicklung ist es meines Erachtens zur Zeit eher so, dass man noch sehr, sehr viel gute Dinge auf dem aktuellen Stand der Technik entwickeln könnte. Hier ist noch sehr viel Platz für Kreativität und neuartige Produkte. Es fehlt aber auch irgendwo das Kapital, um eine Horde von guten Produkt-Designern, Entwicklern, Programmierern, UI-Designern, System-Architekten usw. usf. anzustellen, wenn man davor nicht weiß, ob man damit am Ende erfolgreich sein kann.

Lines of code ist ein vergleichsweise gut begründbareres Maß an Komplexität einer Software-Architektur (es gibt hier auch Ausnahmen, und vor allem auch andere Maße), aber meiner Meinung nach kein sinnvolles Maß, um den Leistungsbedarf eines Systems zu beschreiben.
Nehmen wir hierzu einfach das Beispiel einer Dokumenten-Analyse / Text-Analyse. Das ganze kann sehr komplex werden, und es gibt auch eine untere Komplexitätsschranke für bestimmte berechenbare Maße hierbei. Aber ich kann auch mit einer relativ einfachen, eher naiven, Analyse einiges herausbekommen, habe dann aber eventuell einen enormen Leistungsbedarf.

Ich habe z.B. gerade 40GB Textdaten eines sehr bekannten sozialen Netzwerkes zu Forschungszwecken hier. Das entspricht 10% des Durchsatzes von nur zwei Tagen dieses Dienstes. Ich glaube ich brauche euch ja nicht zu sagen, wie viele Bücher das ganze füllen würde (vgl. 4MB = 1x Bibel in ASCII). Worauf ich aber hinauswill: Auf diesen Daten könnte ich so viele Dinge anwenden, welche so viel Rechenzeit benötigen würden, dass es sich praktisch für mich nicht realisieren lässt. Da könnte ich so viel optimieren, wie ich will. Und auch in 5 Jahren wird man sich da nur ein wenig annähern. Es gibt viele Probleme in der Informatik, welche sich einfach nicht besonders effizient berechnen lassen. Und ab irgend einem Punkt ist die Datenmenge selbst für eine Komplexität von "n" zu hoch.

Klar ist: Ein Endverbraucher bräuchte nicht die immer aktuellste Technologie, aber wenn er daraus einen Nutzen zieht, kann er durch die Nutzung davon den Fortschritt durchaus fördern. Man darf aber nicht überschätzen, wie komplex manche Probleme sind, da braucht es eine Menge Hirnschmalz, um alleine das auszureizen, was wir hier an Möglichkeiten bereits haben.
 

Pari Ralber

Jonathan
Registriert
06.03.13
Beiträge
81
Um mal jFX seine Aussage aufzugreifen, das denk ich nämlich auch, die Iris pro 5200 is echt stark aber reicht halt nicht an eine 650m ran (teilweise), deshalb wird Apple auch nach noch mehr Leistung bei intel angefragt haben. Macht schon Sinn die zus. Grafikkarte weg zu lassen, wenn die integrierte schon viel Leistung hat, trotzdem wärs kein leistungszuwachs beim neuen Modell.

Aber mich interessiert das nicht mehr, mein warten hat ein Ende (sobald das Ding mal ankommt...). Hat jemand Erfahrung wie lange das dauert bei mactrade?
 

picxar

deaktivierter Benutzer
Registriert
06.09.11
Beiträge
376
Du bist ziemlich von der ursprünglichen Diskussion abgewichen und du meinst du bist der Weisheits letzter Schluss? Klar, ich habe eine Meinung bzgl. eines Themas wie jeder andere auch...Aber das hat mit dem ursprünglichen Thema reingarnix zutun, meine Worte basieren nämlich nicht auf irgendwelchen Vermutungen, Notebook Displays mit Full HD + Auflösung gibt es noch nicht solange als das extrem große Stückzahlen hergestellt werden können bzw. sollen.

Also die Hersteller sind noch ziemlich am Anfang und können hier und da mit Sicherheit noch das eine oder andere optimieren, da du ja so ein schlauer Junge bist solltest du ja schonmal was von OLED oder IGZO Displays gehört haben, beide Displays vorallem das IGZO Display ermöglichen sehr hohe Auflösungen zu einem relativ geringen Verbrauch vergleichen mit LCD Panels(verbaut in den aktuellen Retina Modellen), dass heißt künftige Retina Modelle werden höchstwahrscheinlich mit einer dieser Technologien betrieben....

Nächster Fakt, im mobilen Bereich sei es CPU oder GPU hat man IMMER das Ziel die Leistung zu erhöhen/halten, bei gleichbleibender/sinkender Leistungaufnahme. Das heißt die Leistung wird bis auf wenige Ausnahmenen nie zu lasten des Stromverbrauchs erhöht...

Das heißt auch hier wird mit Broadwell und neuen Onboard Grafiklösungen optimiert, man kann also davon ausgehen das sich in den nächsten 2-3 Jahren nochmal einiges ändern wird. Das ist nicht meine subjektive Meinung, dass ist Fakt. Man brauche ja nur in die Vergangenheit schauen. Natürlich kann ich nicht vorhersagen in welchen Größenordnungen sich das ganze ändert, aber es wird sich ändern und es wird früher oder später ein Retina Display in das Air kommen. Und sollte es nicht so kommen dann liegt es mit Sicherheit nicht an den verfügbaren Technologien sondern an der internen Konzernstrategie von Apple.

PS: Nur weil du das ganze anders siehst wie ich und meinst es besser zu Wissen heißt es noch lange nicht das deine Annahmen mehr der Realität entsprechen als meine...Und solange du nicht in der Entwicklungsabteilung von sharp oder sonstigen Panel Herstellern arbeitest oder bei Intel....Beruhen deine subjetkiven Ergüsse genauso wenig der Realität wie meine...

Achja zwischen meinen zu Wissen und wirklich zu 1000% Wissen liegt ein meilenweiter Unterschied.
Es gibt nämlich soviele Faktoren die da einspielen von denen wir wahrscheinlich garnicht Wissen. Und ja, dass bezieh ich auch auf mich..


Programmcode kannst du so oder so sehen, natürlich komm ich bei facebook auf sehr viel Text aber nicht weil ich tausende ineinander verschachtete Befehle habe sondern weil der Text der dargestellt wird, also den den wir lesen, für das System auch ein Teil des Programmcodes darstellt. Es werden ja nicht nur Befehlszeichen gezählt. Das macht das ganze aber nicht wirklich komplexer wenn man jetzt nur die reinen Befehle betrachtet...
 

kelevra

Stahls Winterprinz
Registriert
12.07.10
Beiträge
5.165
[...]Grundsätzlich ist es so, dass Anforderungen, welche neuartige Software (oder die Idee dazu) stellt, die Hardware-Entwicklung durchaus triggern können. Wenn Potential und Bedarf gesehen wird, wird eine solche Entwicklung vorangetrieben. Andererseits kann mit leistungsfähigerer Hardware auch weitergehend experimentiert und zu Projekten inspiriert werden, welche zuvor überhaupt nicht möglich gewesen wären. Die Entwicklung geht Hand in Hand, es ist ein Netz von Abhängigkeiten. Ich zumindest bin nicht in der Lage zu sagen, welche der beiden Lager letztendlich die treibende Kraft ist, aber meine Vermutung ist, dass es eben keine einzelne treibende Kraft gibt.


Ich schätze das auch so ein. Man kann ein Photoshop von vor 10 Jahren nich mit der heutigen Version Vergleichen. Zum Einen wurden Funktionen erst durch die leistungsfähigere Hardware möglich, zum Anderen ist man durch die leistungsfähigere Hardware auf neue Ideen gekommen, diese umzusetzen. Sowohl die Softwareentwicklung als auch die Hardwareentwicklung tragen ihren Part in der Gesamtentwicklung der IT bei. Den Konsumenten ist es dabei eigentlich egal, wie jetzt Funkltionen realisiert wurden, hauptsache es funktioniert und das schnell.

Und gerade wenn man sich die Technologieentwicklung außerhalb von Computern anschaut ist es sehr spannend zu sehen, was Plötzlich an Geräteklassen entsteht, zum einen durch leistungsfähigere hardware und durch kleinere Komponenten.

So nun aber wieder zum Thema.

Jetzt bitte Butter an den Fisch.

In der Aktuellen CT wollte ich euch nur mal empfehlen zu lesen. Da ist der erste 14" Notebook mit der netten Iris Pro 5200 im Test. Soweit so gut. Nur liegt eben diese zwischen einer M630 und einer M650. Nur was hat es immer auf sich wenn man liest, dass Apple mehr GPU Power bei Intel bestellt habe. Ist das dann die 5200er oder eine gepimpte Version der 5200?? Denn ich möchte noch mal daran errinern. Die M650 im aktuellen ist flotter als die normale M650.

Danke

Nun ja, da ja schon die 650M schneller ist als eine reguläre 650M, tue ich den Gerüchten, Apple würde eine gepimpte 5200 erhalten durchaus Glauben schenken. Abwägig ist das allemal nicht. In bestimmten Bereichen ist die normale 5200 ja schon schneller als eine 650M, wenn auch im Gesamtleistungsbereich die 650M überwiegt. Ich habe mich schon etwas früher in diesem Thread dazu ausgelassen.

Fakt ist, dass die 5200 ordentlich mehr LEistung bringen wird als noch die HD4000er Reihe. Wenn man sich die Entwicklung von integrierten Grafiklösungen anschaut, kann man einen enormen Sprung in den letzten Jahren sehen. Im Prinzip bewegt sich, durch die Integration von Controllern und Recheneinheiten in die CPU-Dies alles in Richtung SoC. Was bei mobilen Geräten quasi Standard ist, könnte auch im Notebook-, später vielleicht sogar im Desktopbereich zu guten SoC-Chips führen.
 

picxar

deaktivierter Benutzer
Registriert
06.09.11
Beiträge
376
@JFX ich habe zu dem Thema bereits etwas gesagt und NEIN diese Meinung beruhte nicht auf subjektiven Empfindungen sondern auf Benchmarks, die 5200 ist knappe 25-30% langsamer als die 750M also in spielen, im idle verbrauchen beide fast das selbe, unter Last verbraucht die 5200 nur knappe 8Watt weniger...Die 750M liegt auf einem ähnlichen Niveau wie die 650M, also wird die aufgepimpte Iris vielleicht so schnell wie die 650M bei ein paar Watt weniger Verbrauch, viel bringt das nicht
 

kelevra

Stahls Winterprinz
Registriert
12.07.10
Beiträge
5.165
Zum einen muss man bedenken, dass bei den TDP Angaben zu den Haswells, nicht die Iris alleine gezählt wird, sondern das ganze SoC. Vergleichen kann man also nur Ivy Bridge gegen Haswell und nicht Haswell gegen 650M oder 750M. Letztere Beide sind nämlich dedizierte GPUs, die zusätzlich zum SoC Energie benötigen.

Selbst wenn also die Haswells unter Vollast nur wenig Einsparpotential haben, ist dieses umso höher, wenn man auf eine dedizierte GPU verzichten kann.
 

jFx

Carmeliter-Renette
Registriert
23.01.11
Beiträge
3.292
Sind denn 650 und 750 wirklich vergleichbar??
 

Necrosis

Goldparmäne
Registriert
14.10.10
Beiträge
558
Programmcode kannst du so oder so sehen, natürlich komm ich bei facebook auf sehr viel Text aber nicht weil ich tausende ineinander verschachtete Befehle habe sondern weil der Text der dargestellt wird, also den den wir lesen, für das System auch ein Teil des Programmcodes darstellt. Es werden ja nicht nur Befehlszeichen gezählt. Das macht das ganze aber nicht wirklich komplexer wenn man jetzt nur die reinen Befehle betrachtet...

Das lass ich jetzt einfach mal so stehen :D Du unterschätzt definitiv das Backend und dessen Infrastruktur von Facebook. Außerdem wird dynamischer Text niemals in den Programmcode geschrieben, wäre ja bescheuert. Das ist eine Sache von Datenbanken.

Ja dann passt es ja, mehr Code=mehr Umfang=mehr Leistung wird benötigt

Das habe ich versucht zu widerlegen. Und ich kann es dir beweisen, dass dem nicht so ist. Ich kann dir die stärkste CPU in die Knie zwingen, mit einem (eigentlich) ganz einfachen Problem. Versuche einfach mal die Fibonacci-Folge rekursiv implementiert zu berechnen. Ab der 40ten Zahl wird es schon echt langsam, und für die 100. brauchst du eine Ewigkeit. Wirklich Ewigkeit.

Weißt du, niemand von uns hier behauptet ein Genie oder zu sein oder über übermenschliches Wissen zu verfügen. Was ich mit meinem Text vorhin eigentlich mit ausdrücken wollte, was aber wohl nicht so ganz angekommen ist:
Wir haben immer eine Weiterentwicklung. Sowohl auf der Hardware- als auf der Software-Seite. Und diese ach so großen Änderungen wie eine höhere Display-Auflösung oder ein paar Prozent mehr Leistung oder ein paar Stunden Akkulaufzeit hin oder her sind zwar nette Dinge, aber einfach nicht so enorm wichtig, wenn du das in Bezug setzt, wie die Systeme absolut gesehen arbeiten und was sie bieten. Ja, jede neue CPU-Generation wird etwas neues und stärkeres kommen, wäre ja bescheuert, wenn nicht. Am Ende würden die allermeisten Nutzer überhaupt nicht merken, was für eine GPU sie verbaut haben.

Insgesamt ist es schon wirklich herausragend, was Intel da auf die Beine stellt, eine ganze GPU mit absolut gesehen wirklich vergleichbarer Leistung mit auf den Die zu setzen.

Was sind schon ein paar Watt oder ein paar FPS. Größter Nachteil wird sein, dass man leider nicht so viele Displays anschließen kann, zumindest auf dem aktuellen Stand. Das wäre der größte Punkt, um den ich mir Sorgen machen würde.
 

Setsuna203

Braeburn
Registriert
01.08.13
Beiträge
42
Wer sich mal mit Assembler beschäftigt hat, weiß das ein Egoshooter auch auf eine 3.5" Diskette passen kann. Und auch Diabolo I wurde in Assembler geschrieben. Das Problem ist das dies jedoch extrem aufwändig ist und deswegen nur in der Coder-Szene verwendung findet. Für Firmen die kosteneffizient arbeiten ergibt sich daraus, das sie auf so eine extreme Effizienz verzichten, weil aktuelle Hardware zu einem großen Teil auch ineffizientes programmieren zulässt. Und bei Spielen ist es noch schlimmer, da wird dann einfach erwartet das die Leute sich entsprechende Hardware kaufen wenn es nicht läuft.

Nur meine Erfahrung aus der Windows-Welt. Ich weiß nicht in wie weit sich dass auf Apple übertragen lässt...
 

Necrosis

Goldparmäne
Registriert
14.10.10
Beiträge
558
Das lässt sich vollständig auf auf die Rechner von Apple übertragen. Für Programmierer macht es keinen so großen Unterschied, auf welchem System man systemnah arbeitet.
 

Setsuna203

Braeburn
Registriert
01.08.13
Beiträge
42
Letzter OT:
Wer Interesse hat möge mal bei www.assembly.org vorbeischauen. Es gibt unter anderem 4KB und 64KB Competitions wovon man sich die Demos herunterladen kann. Da klappt dem Otto-Normalverbraucher dann schonmal der Kiefer herunter wenn man sieht was auf so wenig Platz möglich ist. Deswegen schüttel ich bei den GBs von Windows auch immer den Kopf. Ach ja, es gibt auch eine Wild Competition, vielleicht gibt es dort ja auch Mac Demos?

Edit: Wie ich gerade sehe gibt es die 64KB Kategorie gar nicht mehr, dafür jetzt 1KB - man ist ja masochistisch veranlagt :-D Außerdem lassen sich Demos auch ganz bequem per Video ansehen (-> Assembly Archiv), also auch ohne Windows-Kiste! Den zweiten Platz bei der 1k Competition hat übrigens ein Mac OS Programm gewonnen: http://www.youtube.com/watch?v=skgb88RrDlE
 
Zuletzt bearbeitet:

picxar

deaktivierter Benutzer
Registriert
06.09.11
Beiträge
376
@Necrosis ich hab das anders gemeint....
Die Sache mit dem mehr Code=mehr Umfang etc.. bezog sich auf einen anderen post, mir ist klar das mehr Code nicht immer mehr Leistung benötigt....Das man die CPU relativ einfach auslasten kann ist mir auch klar, Prime geht in eine ähnliche Richtung soweit ich weiß...
Der Rest von dem du redest ist wieder eine andere Geschichte, dass die meisten ihre Hardware nicht auslasten und die Unterschiede wohl nicht erkennen würden ist ja nichts neues...Aber wenn es immer nur darum ginge das zu entwickeln was wir wirklich brauchen wären wir heute nicht hier...

@kelvera
Ich weiß nichtmehr wie das ganze genau getestet wurde, ob es möglich ist die Leistungsaufnahme von der Iris getrennt von der CPU zu bestimmen, ansonsten wäre der Vergleich mit der 750M ja für die Katz gewesen, wie du schon sagst müsste man zu der 750M dann noch den CPU Vebrauch dazurechnen...Weiß leider nichtmehr wo ich den Test gelesen hab

Ich musste mal Assembler programmieren, damals meinte unser Lehrer wenn ihr Assembler könnt dann sind die anderen Programmiersprachen ein Kinderspiel...Assembler ist scheiße^^
 

xuselessx

Weißer Winterglockenapfel
Registriert
25.06.10
Beiträge
882
Also laut dem link von kelevra, ist die 750m aber doch um einiges stärker als die 650m! Die soll ja mit GDDR5 Speicher sogar an eine 670m rankommen!
 

TheSaint

Tokyo Rose
Registriert
14.07.09
Beiträge
66
naja dann kann man ja darauf Hoffen das ne 750er drin ist oder eine modifizierte 5200
einen Leistungssprung oder einen deutlichen Laufzeitsprung bei gleichzeitigem Leistungserhalt sollte schon drin sein
 

picxar

deaktivierter Benutzer
Registriert
06.09.11
Beiträge
376
Denke das Retina wird zusammen mit Mavericks erscheinen und bei mittlerer Helligkeit/Wlan an, 10h surfen schaffen....Ich glaub soviel Energie wie bei den Air Komponenten konnte hier nicht eingespart werden, denke das Mavericks da noch einiges ausmacht...