• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick
  • Auch in diesem Jahr möchten wir auf unserer Webseite mit einem passenden Banner etwas weihnachtliche Stimmung verbreiten. Jeder Apfeltalker kann, darf und sollte uns einen Banner-Entwurf zusenden, wie und wo das geht, könnt Ihr hier nachlesen --> Klick

Feature Professionelle Bildbearbeitung: Apple unterstützt noch immer keine 10-Bit-Farbwiedergabe

iMerkopf

Holsteiner Cox
Registriert
12.09.11
Beiträge
3.155
Nicht, wenn der Screen hoch genug auflöst, dass auch ohne Anti-Aliasing keine falschen Kanten mehr sichtbar sind und die Matrizen intelligent genug ausgenutzt werden, dass das Auge aus vier verschiedenen Blau-Pixeln ein Blau erzeugt, dass Computer und Screen an sich nicht anzuzeigen in der Lage wären. Klingt für mich nicht schlecht.

Oder hab ich da was falsch verstanden? Wie gesagt: Interessierter Laie^^
 

hosja

Großherzog Friedrich von Baden
Registriert
23.03.07
Beiträge
5.289
Das ist falsch alle Auflösungen, die von Apple angeboten werden sind an einem PC unter Windows oder Linux auch mit 30Bit Farbtiefe möglich, aber nur über DisplayPort.
Über welchen DisplayPort geht 5K nochmal gleich drüber?
 

Scotch

Graue Herbstrenette
Registriert
02.12.08
Beiträge
8.152
Eine Matrix aus 4x4 Bildpunkten, klein genug um vom Auge nicht mehr als solche wahrnehmbar zu sein, dargestellt in jeweils nur 4 Bit --> ebenfalls 256 Schattierungen.

Aeh... Wuerde das nicht vorraussetzen, dass du eine vierte Farbe (bzw. einen vierten Farbkanal) in die Gleichung mit aufnimmst? Ansonsten bleibts naemlich bei Triplets mit 3x4. Und wenn du die Anzahl der Kanaele erhoehst, dann wird's natuerlich irgendwo theoretisch ueber deren Aufloesung zu reden. 3x8bit oder 4x6bit kommt auch auf's gleiche 'raus.
Allerdings betrachtet das doch nur die Darstellungsseite, oder? Mit dem Workflow an sich hat das erst mal nichts zu tun: Wuerde die Bildquelle naemlich auch nur 4bit beherrschen, bleibt's bei 16 Farben... Soll heissen: Du bringst ein Argument, warum ein hochaufloesender Monitor vielleicht keine 10bit Wiedergabe benoetigt - aber wenn der "Zuspieler" keine 10bit (oder in deinem Beispiel: 8bit) liefert, nutzt dir das auch nichts und dir fehlen Farben in der Darstellung.

Ist es ja auch, es geht ja nicht um die Verarbeitung, sondern nur und ausschliesslich um die Bildschirmdarstellung in höherer Farbdichte.

Nein, wieso? Es geht auch darum, dass z.B. auf einem Mac MKV von der CPU de- oder transkodiert werden muss, da die GPU mangels 10bit-Unterstuetzung aussen vor bleibt. Schrieb' ich doch schon mal: Ist den meisten vmtl. egal, da jeder halbwegs aktuelle Mac eh' mehr CPU-Leistung hat, als der Nutzer abruft - Stand der Technik ist das trotzdem nicht. Es geht auch um moegliche Artefakte in der Bildbearbeitung, die man auf einem Mac ggf. einfach gar nicht sieht. Je nach Ausgabe vielleicht egal, vielleicht aber auch: "Ueberraschung". Bin ich denn der einzige, der schon mal Moires und andere Artefakte auf dem Ausdruck von Fotos hatte, die man auf dem Bildschirm einfach nicht sieht?

Bilder mit 32 Bit pro Kanal zu *bearbeiten*, das ginge auch mit einer Klötzchengrafik a la Commodore C64.

Grundsaetzlich ja, aber a) ohne HW-Beschleunigung und b) nur fuer sehr, sehr kleine Bilder :)

Weniger zukünftige Probleme mit Abwärtskompatibilität und Formatumsetzungen.

Bitte was? Umsetzen muessen die Programme auf OS X - ueberall sonst (Windows, Linux) gibt's den 10bit-Modus doch seit Jahren!

Und das alles nur um effekthascherisch ein Problem zu lösen, das man in Wirklichkeit überhaupt nicht hat.

Ich geb's auf - das nimmt einfach religioese Zuege an. Wenn Apple demnaechst die Farbgrafik abschafft, wirst du schreiben:

Sauberere, einfachere und auf Hardwareebene effizientere Programmierung.

Warum unterstuetzt Apple denn den 10bit-Modus unter iOS? Basierend auf deiner Argumentation ist das doch vollkommen ueberfluessig. Noch viel ueberfluessiger als unter OS X, da auf iDevices Retina im Vergleich zu den Macs quasi Standard sein duerfte.
 
  • Like
Reaktionen: MoNchHiChii

Scotch

Graue Herbstrenette
Registriert
02.12.08
Beiträge
8.152
Nicht, wenn der Screen hoch genug auflöst, dass auch ohne Anti-Aliasing keine falschen Kanten mehr sichtbar sind und die Matrizen intelligent genug ausgenutzt werden, dass das Auge aus vier verschiedenen Blau-Pixeln ein Blau erzeugt, dass Computer und Screen an sich nicht anzuzeigen in der Lage wären. Klingt für mich nicht schlecht.

Und weil das so ist und Apple seit kurzem exakt einen Mac anbietet, bei dem das so sein koennte wird es konsequenterweise auf allen anderen Macs, bei denen das Argument mangels Retina nicht zutrifft und die demzufolge von 10bit profitieren duerften ausgelassen?

Komm schon, die Argumentation ist nicht mal in einem Apple-Forum stichhaltig :)

Über welchen DisplayPort geht 5K nochmal gleich drüber?

Ueber jeden, der die 1.3 AV Spezifikation erfuellt.
 

iMerkopf

Holsteiner Cox
Registriert
12.09.11
Beiträge
3.155
Und weil das so ist und Apple seit kurzem exakt einen Mac anbietet, bei dem das so sein koennte wird es konsequenterweise auf allen anderen Macs, bei denen das Argument mangels Retina nicht zutrifft und die demzufolge von 10bit profitieren duerften ausgelassen?

Komm schon, die Argumentation ist nicht mal in einem Apple-Forum stichhaltig :)
Wenn das wirklich nur beim neuen iMac der Fall ist, werde ich dir sicher nicht widersprechen ;)
Aber wenn jedes Retina-Gerät in der Lage wäre, 10 Bit durch Farbmatrizen zu ersetzen, dann wird durchaus ein Schuh draus.
Ich habe selbst keinen Retina-Mac daheim sondern ein 09er-MacBook und einen MacMini. Aber ich würde von 10 Bit vermutlich auch nicht wirklich profitieren ^^
Wer allerdings jetzt gerade anfangen will, mit einem Neugerät "einzusteigen", der kauft sich doch ohnehin einen Retina-Mac, oder?
Wie gesagt: Ich habe bisher auch an die zwei MacBook-Schienen gedacht. Wenn das Ganze nur auf dem neuen iMac möglich ist, hast du natürlich recht;)
 

Scotch

Graue Herbstrenette
Registriert
02.12.08
Beiträge
8.152
Aber wenn jedes Retina-Gerät in der Lage wäre, 10 Bit durch Farbmatrizen zu ersetzen, dann wird durchaus ein Schuh draus.

Es gibt Stand heute aber nur einen einzigen Mac, auf den das zutreffen wuerde.

Du meinst deshalb werden alle anderen aktuellen und im Markt befindlichen Geraete mal eben pauschal nicht versorgt?

Ich glaub' das nicht. Ich vermute eher, dass die ueberwiegende Anzahl an Mac keine 10bit-HW hat. Soll heissen: Da ist das vollkommen egal. Die Anzahl derer, die einen entsprechenden Monitor an einen mini oder iMac anschliessen duerfte uebersichtlich sein und selbst dann: Keine Ahnung, ob Apple da irgendwo eine 10bit-GPU verbaut hat.

Beim Pro ist das allerdings anders: Der ist nicht nur mit entsprechenden Karten ausgestattet, sondern zielt auch ganz klar auf Zielgruppen, die davon profitieren. Und da ist es dann halt bloed, wenn auffaellt, dass a) 10bit nicht nativ von OS X unetrstuetzt werden und b) die Karten selbst unter Bootcamp kein 10bit unterstuetzen, obwohl die gleichen GPUs/Grafikkarten das in der nicht-Apple-Version standardmaessig machen. Das ist halt seltsam, unverstaendlich und mangels Erklaerung Apples irritierend.

Ich mein, Apple koennte ja auch einfach sagen: "Stimmt. Unterstuetzen wir nicht, denn wir haben keinen einzigen iMac, der 10bit-HW hat und sehen keinen Bedarf fuer 10bit Ausgabe auf minis und Zweitmonitoren. Pro User: Sorry."

Tun sie aber nicht.
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.060
Bin ich der einzige, der darin nur wieder eine reisserische Möglichkeit sieht, wie Portale wie "apfeltalk" oder "heise" mit dummen Überschriften Klicks generieren möchten?
Es gibt objektive Nacheile bei der Verwendung von 8Bit statt 10Bit. Größere Auswirkungen hat es nur für bestimmte Szenarien und dem Rest kann es ziemlich egal sein. Unter anderem sollte man nicht vergessen, daß es noch immer Displays gibt die nur 6Bit unterstützen, so daß man trotz 24Bit Modus nur 18Bit effektiv an Farben auf dem Display sehen kann.

Die Zukunft der Displaytechnik heisst ganz eindeutig Hi-DPI, und nicht Hi-Color.
Die Zukunft heißt Highcolor und HighDPI. Denn die Natur dithered auch nicht.
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.060
Ein einziger Bildpunkt, dargestellt in 8 Bit Tiefe --> 256 Schattierungen.

Eine Matrix aus 4x4 Bildpunkten, klein genug um vom Auge nicht mehr als solche wahrnehmbar zu sein, dargestellt in jeweils nur 4 Bit --> ebenfalls 256 Schattierungen.
Diese Darstellung ist akademisch, denn es gibt keine Displays die deutlich mehr Auflösung haben als die 10Bit fähigen Displays. Dell liefert sein 5k Display als farbkalibrierbares 10Bit Display aus und Apple liefert nur ein 8Bit Displays im iMac 5k aus. Du bräuchtest ein fiktives 10k Display, um die gleiche Bildqualität des Dells zu erreichen.
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.060
Über welchen DisplayPort geht 5K nochmal gleich drüber?
Im iMac 5k werden zwei DisplayPort 1.2a Verbindungen genutzt, weil es momentan keinerlei Graphikkarte auf dem Markt gibt die DP1.3 unterstützen würde. Das Display wird somit als zwei Displays mit je 2560x2880 angesteuert, d.h. das DP MST Protokoll kommt zum Einsatz.

DP1.2a ist für maximal 4096x2160 mit 60Hz und 30Bit über ein Kabel spezifiziert, und es gibt Monitore mit dieser Auflösung. Z.B. das neue Eizo 4k Display http://www.eizo.de/monitore/coloredge/cg-serie/31-zoll/CG318_4K.html.
 
  • Like
Reaktionen: Scotch

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Wuerde das nicht vorraussetzen, dass du eine vierte Farbe (bzw. einen vierten Farbkanal) in die Gleichung mit aufnimmst?
Nein.
16 Pixel (4x4), bei jeweils 16 Tonstufen (4bit), macht nach Adam Riese 256
Oder nicht?

3x8bit oder 4x6bit kommt auch auf's gleiche 'raus.
Nein. Die Farbkanäle müssen -zumindest annähernd- den Wahrnehmungsspektren der verschiedenen Rezeptoren in der Netzhaut entsprechen, sonst funktioniert das Mischmodell "A+B+C ergibt Weiss" nicht wie erwartet.
Dass der Trick mit der Zumischung von noch mehr Zwischenfarben bei Druckfarbe auf Papier funktioniert (und das sogar enorm viel besser), das ist den sehr viel komplexeren chemischen Wechselwirkungen von sich miteinander vermischenden Drucktinten bzw -partikeln zu schulden, nicht der optischen Täuschung aus einem daraus gebildeten Raster.
Dort gilt die simple Formel "A+B ergibt Mischton C" häufig einfach nicht. Du brauchst nur eine ungeeignete Kombination aus Farbsorte und Papier zu wählen, plötzlich wird aus "Gelb + Magenta" kein strahlendes Rot mehr, sondern nur noch ein dreckiges Braun, oder sogar ein paradox wirkendes Grün.
Eine "saubere" Farbe zu drucken ist *sehr* viel schwieriger und aufwendiger als nur das Licht von mehreren Leuchtquellen zu kombinieren.

aber wenn der "Zuspieler" keine 10bit (oder in deinem Beispiel: 8bit) liefert
Dir ist evtl nicht geläufig, dass zur Anfangszeit des "Desktop Publishing" ausschliesslich mit monochromen (!) Bitmaps gearbeitet wurde - und dennoch entstanden daraus farbenfrohe Druckwerke in Fotoqualität.
Und ja, die damals eingesetzten Rastermatritzen kamen schon mal mit Auflösungen von 2400 dpi daher. (Damals ein "astronomischer" Wert)
So geht es eben auch (sogar besser), den erforderlichen, fein abgestuften "Graukeil" zu erzeugen. Und bei richtig kombinierten Kanälen eben auch jede Farbe, in jedem Ton und jeder Intensität. Trotz 1-Bit Technik.

Es geht auch darum, dass z.B. auf einem Mac MKV von der CPU de- oder transkodiert werden muss, da die GPU mangels 10bit-Unterstuetzung aussen vor bleibt.
Das Problem mit den MKV rührt *nicht* daher, sondern daran dass Apple dieses hirnverbrannte Murks"format" ohnehin überhaupt nicht nativ unterstützen mag. Es ist ein Problem mit MKV generell, nicht mit den 10Bit.
Um 10Bit Datenströme auch auf 8Bit Systemen passabel zu rendern (egal ob in Soft- oder Hardware), genügt es nämlich völlig ganz einfach die 2 letzten Bits bei der Rekonstruktion der DCT-kodierten Videoframes zu überspringen. Das *muss* eine jede GraKa beherrschen, die auch nur für Microsofts DirectX 6 oder Apples QuickDraw3D wirklich geeignet war - also seit bald 20 Jahren.
Nur mit diesen kleinen Mauscheleien war es anfangs möglich, ein beliebiges MPEG-Video oder ein JPEG als Textur in Echtzeit auf ein Polygonmodell zu zaubern, ohne die Framerate in den Keller rasseln zu lassen.
Merkt eh keine Sau, der Unterschied im Resultat ist idR lächerlich bis gar nicht vorhanden.

Stand der Technik ist das trotzdem nicht.
"Stand der Technik" sind auch 10Bit nicht.
Das wären 16 oder sogar 32Bit pro Kanal - via OpenGL auch auf Macs nutzbar. Bei hinreichenden Resourcen der GraKa schon seit Mac OS 9 verfügbar. Zumindest theoretisch, denn solche Karten leistete man sich bestenfalls für SGI Workstations im Gegenwert eines Eigenheims.
(Wohlgemerkt: OS Neun - nicht Zehn-Punkt-Neun. Über 15 Jahre.)

"Ueberraschung". Bin ich denn der einzige, der schon mal Moires und andere Artefakte auf dem Ausdruck von Fotos hatte
Durch die bessere Darstellung am Display wirst du dich sogar noch öfter überraschen.
Artefakte beim Druck entstehen nämlich nicht, weil 8Bit Abstufungen zu grob wären. Sie entstehen zB, weil der Drucker (bzw sein Treiber) gelegentlich schon mal in nur 3, 4 oder 5 Bit rendert.
Willst du solche Überraschungen vermeiden, musst du das am Display angezeigte Bild künstlich *schlechter* machen, nicht besser. Nur so erhältst du eine aussagekräftige Vorschau, alles andere ist ein hilfloser Kampf gegen imaginäre Windmühlen.

Umsetzen muessen die Programme auf OS X - ueberall sonst (Windows, Linux) gibt's den 10bit-Modus doch seit Jahren!
Wenn erst mal der 16Bit Modus von den GraKa-Herstellern zum neuen Stand der Dinge erklärt wird (und das WIRD er, denn so geht alles *viel* einfacher in Hardware zu erledigen, ohne überflüssige Bitshifts), wer wird dann derjenige sein der mit viel mehr Altformaten klarkommen wird müssen, hm?

Wenn Apple demnaechst die Farbgrafik abschafft
Yo man, gleich nach dem Tag, an dem Microsoft den "Aero" Desktop wieder einführt, weil sie endlich rausbekommen haben wie die Trickster bei Apple das mit den üppigen grafischen Effekten und der langen Akkulaufzeit so gut zusammen hinbekommen.
;)
 

theSNAD

Wohlschmecker aus Vierlanden
Registriert
01.06.13
Beiträge
238
Stellen wir uns nochmal die Ausgangsfrage: Wie viele Farben kann das menschliche Auge unterscheiden?
Ich halte 10 bit pro Kanal für überflüssig.
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Dell liefert sein 5k Display als farbkalibrierbares 10Bit Display aus
Der Dell Monitor *akzeptiert* 10 Bit, stellt sie aber nicht dar.
Zur Feststellung:
Dell proklamiert zwar 1,074 Milliarden Farben, also "true 10 Bit", ABER...
...nur ein dynamisches Rauschverhältnis von typischen 8 Millionen zu Eins.

Wer in Physik ein bisschen mehr als nur bis hart an die Überlebensgrenze mitgemacht hat, der bemerkt die gigantische Luftkammer in der Mogelpackung sofort. Das Ding mag zwar ganz "echt" die 10Bit Signale fressen -rein rechnerisch-, wirklich *anzeigen* kann es sie aber bei weitem nicht. Du siehst die gewohnten 8 Bit (in etwa, sogar etwas weniger), der Rest des Signals versumpft völlig nutzlos im Rauschen der bildgebenden Transistoren.
Vermutlich schreiben sie deshalb die verräterische Zahl gar nicht erst ins Datenblatt, sondern nur ein albernes "Mega". Erst in der Fussnote, im Kleingedruckten, offenbart sich der obligatorische Schwindel mit der Halbwahrheit. Ein Schelm wer sich was dabei denkt.
(Die "Milliarden" von Farben wurden vllt bei Temperaturen um die minus 40° C erreicht - im Labor. Irgendwann, irgendwo. Har, har, har...)

Und...
...der klitzekleine Preisunterschied zum "5k iMac" könnte dir offenbaren, dass die Geräte nicht mal annähernd in der gleichen Liga spielen sollen.
Für den Preis des Displays bekommst du bei Apple immerhin noch einen kompletten Rechner mit dazu. Und zwar keinen unbedingt schlechten, kann man nicht behaupten.
Nicht unerheblich, oder?
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Wie viele Farben kann das menschliche Auge unterscheiden?
Die Frage ist nicht, wieviele es sind.
Die entscheidendere Frage ist, wie diese geometrisch im dreidimensionalen Gamut angeordnet sind. Und diese Anordnung ist beim Auge des Menschen *extrem* ungleichmässig verteilt, mit deutlichen "Ballungen" im Grün- und Rotbereich, und einer gähnend klaffenden Lücke bei Blau.

Grün - exzellente Farbtonempfindlichkeit, schlechte Kontrastwahrnehmung.
Hier muss der Fokus auf feinste Tonunterschiede gelegt sein.

Rot - exzellente Kontrastwahrnehmung, schlechte Farbtonempfindlichkeit.
Hier sind feinste Abstufungen in der Helligkeit entscheidend.

Blau - beides extrem schlecht.
Blau dient unseren Augen nur als "Feintuning" in der Wahrnehmung, das ist der Grund warum rein blaues Licht von LEDs so stark blendend wirkt, ohne dass man in seinem Schein irgendwie brauchbar was erkennen könnte, selbst bei weit mehr als der sonst nötigen Intensität nicht. Lesen unter blauem Licht ist eine Extrembelastung fürs Nervensystem, der durch eine noch so helle Beleuchtung nicht beizukommen ist.
Ganz im Gegensatz zu Rot, wo eine winzige einzige kleine LED eine ganze Lagerhalle des nachts mühelos erleuchten kann.
Während man beim Anblick eines grünen Gebüschs bei gleichbleibenden, ausgewogenen Helligkeitsverhältnissen auch noch die allerfeinsten Farbnuancen und damit jedes einzelne Blatt wahrnimmt - für den im Urwald hausenden Steinzeitmenschen überlebensnotwendig, denn dort lauerte das Raubtier und die Nahrung.
Der Blauanteil in der Bildinformation wird daher während der verlustbehafteten Kompression als allererstes entfernt, bei hoher Kompression bis an die Grenze der kompletten Entfernung. Während bei Orange- und Hauttönen jede Manipulation sofort unnatürlich wirkt, dort müssen die darstellbaren Farben des Displays sehr viel dichter beieinander liegen.

Ein Display, das dieser Verteilung einigermassen gut entspricht, ist schon mit nur einer Million Zwischentönen visuell besser als eines, das dagegen steht, selbst wenn es 1 Milliarde Farben aufbieten könnte.
Fehlinterpretierte Zahlen lügen besser als alle Worte dieser Welt.
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.060
Der Dell Monitor *akzeptiert* 10 Bit, stellt sie aber nicht dar.
Den entscheidenden Punkt übergehst Du wieder mal geschickt. Mit der verfügbaren Technik ist es leichter möglich ein echtes 10Bit Display zu produzieren, als ein Display mit doppelt so hoher Auflösung. D.h. Dithering ist keine Alternative zu 10Bit Darstellung!
 

CDZwerg

Jonagold
Registriert
21.08.13
Beiträge
22
@Rastafari

Du hast viel interessantes geschrieben, event. wäre noch anzuhängen das wir auf Grund der Tatsache das wir als Menschen alle individuell und einzigartig sind und schon mal nicht jeder die Farben gleich wahrnimmt was wohl schon zu vielen Diskussionen geführt haben könnte!
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Mit der verfügbaren Technik ist es leichter möglich ein echtes 10Bit Display zu produzieren, als ein Display mit doppelt so hoher Auflösung.
Das ist falsch. Die bildgebenden Halbleiter fein genug zu steuern wirft viel grössere physikalische Probleme auf, als sie immer kleiner zu bekommen.
Das ist generell so, wenns andersrum wäre würdest du jetzt gerade nicht vor einer Maschine mit purer Binärlogik, sondern vor einer weitestgehend in TriState-, Multilevel- oder gar reiner Analogtechnik aufgebauten Maschine sitzen.
 

hosja

Großherzog Friedrich von Baden
Registriert
23.03.07
Beiträge
5.289
Im iMac 5k werden zwei DisplayPort 1.2a Verbindungen genutzt, weil es momentan keinerlei Graphikkarte auf dem Markt gibt die DP1.3 unterstützen würde. Das Display wird somit als zwei Displays mit je 2560x2880 angesteuert, d.h. das DP MST Protokoll kommt zum Einsatz.

DP1.2a ist für maximal 4096x2160 mit 60Hz und 30Bit über ein Kabel spezifiziert, und es gibt Monitore mit dieser Auflösung. Z.B. das neue Eizo 4k Display http://www.eizo.de/monitore/coloredge/cg-serie/31-zoll/CG318_4K.html.

Genau darauf wollte ich hinaus. Die 5K Auflösung bekommt man schon nur mit Tricks hin. Da kann mann dann einfach nicht noch 2Bit auf jeden Kanal einfach noch so drauf machen.
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.060
Genau darauf wollte ich hinaus. Die 5K Auflösung bekommt man schon nur mit Tricks hin. Da kann mann dann einfach nicht noch 2Bit auf jeden Kanal einfach noch so drauf machen.
Doch, das Dell 5k Display läuft auch mit 10Bit Ansteuerung. Wieviel Farbtiefe das Display darstellen kann ist ein anderes Thema.
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.060
Das ist falsch. Die bildgebenden Halbleiter fein genug zu steuern wirft viel grössere physikalische Probleme auf, als sie immer kleiner zu bekommen.
Es gibt bereits 4k Displays mit 16Bit LUTs, aber es gibt keinerlei 8k Display für den Massenmarkt. Irgend wie paßt das die Realität nicht zu Deiner Argumentation.
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Es gibt bereits 4k Displays mit 16Bit LUTs
Bist du sicher verstanden zu haben, was eine LUT überhaupt ist?
Und warum selbst eine 128-bittig angelegte LUT absolut nichts darüber aussagen würde, wieviele Zwischenwerte letztendlich durch die Hardware tatsächlich darstellbar sind?

Die Zukunft heißt Highcolor und HighDPI. Denn die Natur dithered auch nicht.
Und ob sie das tut, und zwar ganz massiv. Eigentlich sogar fast auschliesslich, zumindest in einem erschreckend heftigen Umfang.
Bei Zweifeln befrage bitte einen Augenarzt bzw Neurologen.
Der erklärt dir sicher gerne näher den Stand der Erkenntnisse über die Funktion von Netzhaut, Nervensystem und bildverarbeitenden Gehirnregionen.

Es mag ja schwer vorstellbar sein, aber über 90% von dem was du gerade eben noch zu sehen geglaubt hast, das haben gar nicht deine Augen gesehen. Das hat sich dein Hirn nur selbst eingebildet ("einge-bild-et" im wahrsten Sinne des Wortes).
Sowas unglaubliches ist längst experimentell hieb- und stichfest bewiesen.
Gegen diesen absurden Zirkus der Selbsttäuschung, den dein Nervensystem veranstaltet um überhaupt funktionieren zu können, dagegen wirken selbst die Daten(feigen)blätter von Dell noch sehr seriös. ;)