Scotch
Graue Herbstrenette
- Registriert
- 02.12.08
- Beiträge
- 8.152
Für mich als Laie ist es vollkommen schnuppe, ob die Farbtiefe jetzt ca. 16 Millionen ist oder wieviel? Über 1 Milliarde?
Dann ist dir als Laie auch vollkommen schnuppe, ob du z.B. MKV mit (10bit) oder ohne (8bit) GPU Unterstuetzung abspielst und die entsprechenden Funktionen deiner Grafikkarte brach liegen, oder eben nicht. Ist ja bei heutiger Desktop-Rechenleistung auch vollkommen egal (wenn man nicht gerade Pro-User ist und dauernd Renderings macht oder Tonemapping oder... - merkst du was?) und Dank moderner Akkus spielt es ja auch nicht wirklich eine Rolle, wieviel Strom jetzt genau z.B. das Abspielen eines MKV braucht, je nachdem ob CPU oder GPU zum Zuge kommen.
Interessant in diesem Zusammenhang: Auf den iDevices gibt's seit dem A7 10bit-Unterstuetzung - seit iOS 8 auch mit offenem API fuer Drittentwickler. Ob das was mit stromsparen & Co. zu tun haben koennte?
Fragen ueber Fragen... und der wirkliche Aufreger ist doch weniger, ob man's braucht (haengt von der Anwendung ab), sondern das die Technik mittlerweile Standard ist und sie bei Apple selbst da nicht zum Zuge kommt, wo es vollkommen unverstaendlich ist - naemlich z.B. auf dem Pro, der mit enstprechender HW ausgestattet ist. Das der 10bit-Betrieb aktiv unterdrueckt wird ist bei einer fast 15 Jahre alten Technik ja nun schon einigermassen seltsam.
Und hoert auf, euch an dem seltsamen ct' Beispiel mit Graustufenverlaeufen aufzuhaengen. 10bit-Kanaele wurden nicht erfunden, um mehr Farben darzustellen, sondern um den Dynamikumfang zu erhoehen. Daher setzten m.W. auch aktuelle RAW-Formate auf hochauflosende Kanalinformationen. AFAIR kommt das komplett aus der medizinischen Bildverarbeitung fuer MRTs und hielt im "Mainstraem" erst durch das Aufkommen von Kompressionsalgorithmen Einzug, die mit der zusaetzlichen Informationsdichte tricksen koennen. Je hoeher die Aufloesung des Ausgangsmaterials (hier: Kanaltiefe), umso besser/verlustfreier laesst sich halt komprimieren.
Wen der "Verlaufseffekt" wirklich interessiert und wo das praktisch was ausmacht, der nehme sich ein moeglichst hochaufloesendes Digitalbild (also so was ab 16MP aufwaerts) und exportiere sich das 2x als TIFF: 1x mit einem 16bit Farbraum und einmal mit einem 32bit Farbraum. Dann einfach mal in eine Stelle mit Farbverlauf reinzoomen, bis man die native Aufloesung zu erkennen beginnt (also anfaengt, "Pixel" zu erahnen - "Minecraft"-Look fuer Spaetgeborene). Dann hat man keine Fragen mehr, ob man einen Unterschied sieht. Wozu man das braucht? Z.B. fuer automatische Maskierungsfunktionen (z.B. den "Zauberstab" in PS).
Ja, ich weiss, das ist nicht ganz das gleiche, aber es visualisiert den Effekt in einer Produktionskette.
Die Grafikprofis machen so ein Spielchen natuerlich nicht, sondern nehmen sich eine Portraetaufnahme vor neutralem Hintergrund, rendern die 1x in 8bit pro Kanal und 1x in 10bit pro Kanal. Fuer beide Ausgaben dann mal die Haare des Modells ueber unscharf Maskieren per Gradationskurve freistellen und gucken, ob man einen Unterschied in Ergebnis oder Arbeitsablauf feststellt.