Wuerde das nicht vorraussetzen, dass du eine vierte Farbe (bzw. einen vierten Farbkanal) in die Gleichung mit aufnimmst?
Nein.
16 Pixel (4x4), bei jeweils 16 Tonstufen (4bit), macht nach Adam Riese 256
Oder nicht?
3x8bit oder 4x6bit kommt auch auf's gleiche 'raus.
Nein. Die Farbkanäle müssen -zumindest annähernd- den Wahrnehmungsspektren der verschiedenen Rezeptoren in der Netzhaut entsprechen, sonst funktioniert das Mischmodell "A+B+C ergibt Weiss" nicht wie erwartet.
Dass der Trick mit der Zumischung von noch mehr Zwischenfarben bei Druckfarbe auf Papier funktioniert (und das sogar enorm viel besser), das ist den sehr viel komplexeren chemischen Wechselwirkungen von sich miteinander vermischenden Drucktinten bzw -partikeln zu schulden, nicht der optischen Täuschung aus einem daraus gebildeten Raster.
Dort gilt die simple Formel "A+B ergibt Mischton C" häufig einfach nicht. Du brauchst nur eine ungeeignete Kombination aus Farbsorte und Papier zu wählen, plötzlich wird aus "Gelb + Magenta" kein strahlendes Rot mehr, sondern nur noch ein dreckiges Braun, oder sogar ein paradox wirkendes Grün.
Eine "saubere" Farbe zu drucken ist *sehr* viel schwieriger und aufwendiger als nur das Licht von mehreren Leuchtquellen zu kombinieren.
aber wenn der "Zuspieler" keine 10bit (oder in deinem Beispiel: 8bit) liefert
Dir ist evtl nicht geläufig, dass zur Anfangszeit des "Desktop Publishing" ausschliesslich mit monochromen (!) Bitmaps gearbeitet wurde - und dennoch entstanden daraus farbenfrohe Druckwerke in Fotoqualität.
Und ja, die damals eingesetzten Rastermatritzen kamen schon mal mit Auflösungen von 2400 dpi daher. (Damals ein "astronomischer" Wert)
So geht es eben auch (sogar besser), den erforderlichen, fein abgestuften "Graukeil" zu erzeugen. Und bei richtig kombinierten Kanälen eben auch jede Farbe, in jedem Ton und jeder Intensität. Trotz 1-Bit Technik.
Es geht auch darum, dass z.B. auf einem Mac MKV von der CPU de- oder transkodiert werden muss, da die GPU mangels 10bit-Unterstuetzung aussen vor bleibt.
Das Problem mit den MKV rührt *nicht* daher, sondern daran dass Apple dieses hirnverbrannte Murks"format" ohnehin überhaupt nicht nativ unterstützen mag. Es ist ein Problem mit MKV generell, nicht mit den 10Bit.
Um 10Bit Datenströme auch auf 8Bit Systemen passabel zu rendern (egal ob in Soft- oder Hardware), genügt es nämlich völlig ganz einfach die 2 letzten Bits bei der Rekonstruktion der DCT-kodierten Videoframes zu überspringen. Das *muss* eine jede GraKa beherrschen, die auch nur für Microsofts DirectX 6 oder Apples QuickDraw3D wirklich geeignet war - also seit bald 20 Jahren.
Nur mit diesen kleinen Mauscheleien war es anfangs möglich, ein beliebiges MPEG-Video oder ein JPEG als Textur in Echtzeit auf ein Polygonmodell zu zaubern, ohne die Framerate in den Keller rasseln zu lassen.
Merkt eh keine Sau, der Unterschied im Resultat ist idR lächerlich bis gar nicht vorhanden.
Stand der Technik ist das trotzdem nicht.
"Stand der Technik" sind auch 10Bit nicht.
Das wären 16 oder sogar 32Bit pro Kanal - via OpenGL auch auf Macs nutzbar. Bei hinreichenden Resourcen der GraKa schon seit Mac OS 9 verfügbar. Zumindest theoretisch, denn solche Karten leistete man sich bestenfalls für SGI Workstations im Gegenwert eines Eigenheims.
(Wohlgemerkt: OS Neun - nicht Zehn-Punkt-Neun. Über 15 Jahre.)
"Ueberraschung". Bin ich denn der einzige, der schon mal Moires und andere Artefakte auf dem Ausdruck von Fotos hatte
Durch die bessere Darstellung am Display wirst du dich sogar noch öfter überraschen.
Artefakte beim Druck entstehen nämlich nicht, weil 8Bit Abstufungen zu grob wären. Sie entstehen zB, weil der Drucker (bzw sein Treiber) gelegentlich schon mal in nur 3, 4 oder 5 Bit rendert.
Willst du solche Überraschungen vermeiden, musst du das am Display angezeigte Bild künstlich *schlechter* machen, nicht besser. Nur so erhältst du eine aussagekräftige Vorschau, alles andere ist ein hilfloser Kampf gegen imaginäre Windmühlen.
Umsetzen muessen die Programme auf OS X - ueberall sonst (Windows, Linux) gibt's den 10bit-Modus doch seit Jahren!
Wenn erst mal der 16Bit Modus von den GraKa-Herstellern zum neuen Stand der Dinge erklärt wird (und das WIRD er, denn so geht alles *viel* einfacher in Hardware zu erledigen, ohne überflüssige Bitshifts), wer wird dann derjenige sein der mit viel mehr Altformaten klarkommen wird müssen, hm?
Wenn Apple demnaechst die Farbgrafik abschafft
Yo man, gleich nach dem Tag, an dem Microsoft den "Aero" Desktop wieder einführt, weil sie endlich rausbekommen haben wie die Trickster bei Apple das mit den üppigen grafischen Effekten und der langen Akkulaufzeit so gut zusammen hinbekommen.