Der Mac sendet aber trotzdem ein 3840 x 2160 (4K) Signal an den Bildschirm, es wird einfach alles höher skaliert, aber man hat trotzdem die Detailschärfe von 4K.
Der erste Teil stimmt, der zweite nicht.
Klar wird weiterhin ein 4K Signal gesendet.
Die Darstellung wird aber unsauber skaliert.
Wenn die Skalierung nicht sauber aufgeht, wird es unscharf.
1080p ist genau 4k geteilt durch 4, das geht perfekt.
Einfaches Beispiel:
Von unten links nach oben rechts ein Strich.
Immer ein Pixel noch oben und ein Pixel nach rechts.
Also ein 1 Pixel breiter und hoher Strich.
Dann habe ich von unten links einen Strich im perfekten 45° Winkel bis ganz nach rechts am Bildschirmrand, 1680 Pixel unter dem dem obersten Pixel.
Skaliere ich diesen auf 1080p, kein Problem.
2160 / 1080 = 2
3840 / 1920 = 2
Der Strich ist dann einfach zwei Pixel hoch und breit.
Sozusagen ein 4 Pixel Quadrat von unten links nach oben rechts.
Der Strich ist zwar "grösser" aber immer noch perfekt.
Ich komme auch immer noch 1680 unter dem oberen Rand an.
Wenn ich nun aber auf 1920p x 1200p skalieren möchte, habe ich ein Problem.
In der Breite kann ich einfach wieder verdoppeln.
In der Höhe aber, geht das nicht.
2160 / 1200 = 1.8
Mein Strich sollte nun also 2 Pixel breit und 1,8 Pixel hoch sein. Nur dann wäre die Skalierung originalgetreu.
1,8 Pixel geht aber natürlich hardwaretechnisch nicht.
In der Praxis gibt es diese angeblichen "Leistungseinbußen" sowieso nicht.
Da müsste ich auch erst mal einen Test sehen, um das bei modernen M Prozessoren zu glauben.
Kann ich mir nicht vorstellen. Skalierung sollte eine easy Aufgabe sein für jede GPU.
Zudem gibt es noch einen wichtiges Detail, was dieser Theorie widerspricht.
Ein MacBook Air M3 kommt per default mit der Skalierung von 1.74.
Wären ungerade Skalierungen also tatsächlich mit Leistungseinbussen verknüpft, wäre auch jedes Air davon betroffen