Die neueste Version der Bildgenerierungs-KI, Stable Diffusion 3, stößt auf breite Kritik. Die Absicht der Entwickler:innen war es, die Erstellung anstößiger Inhalte zu verhindern. Das Ergebnis jedoch wirkt fragwürdig. Die KI erzeugt verstörende Darstellungen von Menschen.
Das Modell sollte eigentlich Menschen realistisch darstellen. Stattdessen produziert es Bilder, die eher Horrorfilmen gleichen. Nutzer:innen auf Reddit haben zahlreiche Beispiele gesammelt. Diese zeigen grotesk verformte menschliche Figuren. Hände und andere Körperteile sind oft disproportioniert oder unzusammenhängend.
Die Probleme treten speziell bei Menschen auf. Andere Motive wie Landschaften oder Objekte stellt die KI fehlerfrei dar. Dies führt zu Diskussionen über die Ursachen und Anpassungen der Algorithmen.
Mögliche Ursachen der fehlerhaften Bilder
Eine Theorie ist, dass die Algorithmen zur Inhaltskontrolle überempfindlich sind. Sie könnten bei Menschenbildern zu extremen Verformungen führen. Eine andere Möglichkeit ist, dass Stability AI das Trainingsmaterial bereinigt hat. Dies könnte die Fähigkeit der KI beeinträchtigt haben, Menschen korrekt zu rendern.
Stable Diffusion 3: Reaktionen und Ausblick
Die Community reagiert enttäuscht und verunsichert auf die neuen KI-Ergebnisse. Stability AI hat sich bislang nicht dazu geäußert. Die Entwicklung erfolgte in Kooperation mit Nvidia und AMD. Dies deutet auf eine fortschrittliche technische Basis hin. Doch eine Lösung für die Bildprobleme steht noch aus.
Es bleibt offen, wie Stability AI auf die Kritik reagieren wird. Das Unternehmen muss das Modell möglicherweise anpassen. Ziel ist es, die Darstellungsfehler zu korrigieren und das Vertrauen zurückzugewinnen.
Via Reddit