- Registriert
- 23.02.05
- Beiträge
- 454
ich hoffe auf eine Antwort/Lösung von den DTP Profis - und zwar ist die Gammakorrektur für mein Verständnis noch teilweise ein Rätsel...
Ich halte mal fest - bitte korrigiert mich sollte ich falsch liegen:
Ein (CRT-)Monitor arbeitet technisch bedingt nicht linear. Dh. 50% der maximalen Arbeitsspannung am Transistor ergibt nicht 50% der maximal möglichen Luminanz.
Um diese nicht-Linearität auszugleichen, wird das Ausgangssignal korrigiert - mit der Gammakorrektur, wobei diese durch folgende Funktion beschrieben werden kann:
I' entspricht dem korrigierten Ausgangssignal, I dem Unkorrigierten, gamma... Konstanter Wert
LCD-Screens bilden dieses Verhalten (vermutlich aus Gründen der Abwärstkompatiblität) nach.
Nun Werfe ich die Gamma-Werte 1.8 und 2.2 ins Spiel. Apple mit dem Korrekturwert 1.8 ein annähernd vergleichbares Ergbnis der SW-Drucker Reproduktion und Monitor-Ausgabe erzielen können (Tonwerte auf Monitor und Ausdruck waren gut genähert "ident" -> WYSIWYG -> allerdings trifft das nur auf die Geräte zu die um ~1985 verwendet wurden).
Irgendjemand hat dann den Korrekturwert von 2.2 ins Spiel geworfen (TV, Windows...) - auch in Snow Leopard verwendet man nun als Standardwert Gamma = 2.2. Wie sollte sich das auf die Ausgabe des Monitors auswirken?
Nun habe ich für meinen Monitor (LCD) ICC-Profile vom Hersteller geladen (einmal mit Gamma 1.8 und einmal mit 2.2) - mit dem Ergebnis: ich kann keinen Unterschied sehen. Sollte die Korrektur mit 1.8 nicht ein wesentlich helleres Ergebnis liefern als mit 2.2?
Noch eine weitere Frage: ist der Gammawert nicht abhängig vom Ausgabegerät - und nach erfolgreicher Kalibrierung - "irgendein Wert zwischen "1 und n"?
Wie hängt das mit der Ausgabe zusammen? Müsste die Gammakorrektur nicht richtigerweise für jeden Farbkanal durhgeführt werden?
Hoffe auf leicht verständlich Antworten...und korrigiert mich sollte ich falsch liegen
thx in advance. c7
Ich halte mal fest - bitte korrigiert mich sollte ich falsch liegen:
Ein (CRT-)Monitor arbeitet technisch bedingt nicht linear. Dh. 50% der maximalen Arbeitsspannung am Transistor ergibt nicht 50% der maximal möglichen Luminanz.
Um diese nicht-Linearität auszugleichen, wird das Ausgangssignal korrigiert - mit der Gammakorrektur, wobei diese durch folgende Funktion beschrieben werden kann:
Code:
I' = I^gamma
LCD-Screens bilden dieses Verhalten (vermutlich aus Gründen der Abwärstkompatiblität) nach.
Nun Werfe ich die Gamma-Werte 1.8 und 2.2 ins Spiel. Apple mit dem Korrekturwert 1.8 ein annähernd vergleichbares Ergbnis der SW-Drucker Reproduktion und Monitor-Ausgabe erzielen können (Tonwerte auf Monitor und Ausdruck waren gut genähert "ident" -> WYSIWYG -> allerdings trifft das nur auf die Geräte zu die um ~1985 verwendet wurden).
Irgendjemand hat dann den Korrekturwert von 2.2 ins Spiel geworfen (TV, Windows...) - auch in Snow Leopard verwendet man nun als Standardwert Gamma = 2.2. Wie sollte sich das auf die Ausgabe des Monitors auswirken?
Nun habe ich für meinen Monitor (LCD) ICC-Profile vom Hersteller geladen (einmal mit Gamma 1.8 und einmal mit 2.2) - mit dem Ergebnis: ich kann keinen Unterschied sehen. Sollte die Korrektur mit 1.8 nicht ein wesentlich helleres Ergebnis liefern als mit 2.2?
Noch eine weitere Frage: ist der Gammawert nicht abhängig vom Ausgabegerät - und nach erfolgreicher Kalibrierung - "irgendein Wert zwischen "1 und n"?
Wie hängt das mit der Ausgabe zusammen? Müsste die Gammakorrektur nicht richtigerweise für jeden Farbkanal durhgeführt werden?
Hoffe auf leicht verständlich Antworten...und korrigiert mich sollte ich falsch liegen
thx in advance. c7