Im Februar letzten Jahres stellten Google und Microsoft mit großem Aufwand neue Produkte vor, die auf generativer KI basieren. Diese Entwicklung folgte auf den Fersen des viralen Erfolgs von ChatGPT. Doch bald schon wurden die Unternehmen für eklatante Faktenfehler ihrer Chatbots in öffentlichen Demos kritisiert. Insbesondere Googles Aktienkurs litt erheblich unter den Folgen.
Ein Jahr später setzt sich der Kreislauf aus KI-Veröffentlichungen und öffentlicher Kritik fort. Googles KI-Chatbot Gemini, kürzlich um die Funktion erweitert, realistisch aussehende Bilder von Menschen zu erstellen, sah sich mit Vorwürfen konfrontiert, absichtlich keine Visualisierungen von weißen Personen zu zeigen, selbst in historischen Kontexten, wo dies erwartet würde. Microsofts KI geriet ebenfalls erneut unter Beschuss. So erzeugte sein Copilot-Chatbot Antworten, die von Nutzern als bizarr, beunruhigend und teilweise schädlich beschrieben wurden.
Generative KI ist von Natur aus fehlerhaft und unvorhersehbar. Sundar Pichai, CEO von Google, räumte dies in seiner Entschuldigung ein. Dennoch setzen Google und Microsoft unter enormem Konkurrenzdruck weiterhin auf diese unvollkommenen KI-Systeme in einer Vielzahl von Produkten – und werden regelmäßig von den unvorhergesehenen Fehlern dieser Systeme überrascht.
Google bemühte sich, durch technische Methoden Diversität in die Ergebnisse von Gemini einzubringen, um bekannten Bias-Problemen in KI-Bildgeneratoren entgegenzuwirken. Doch dieser Ansatz stieß auf Kritik und wurde als ahistorisch und absurd wahrgenommen. Dr. Joy Buolamwini, Autorin von „Unmasking AI
“ (*), betont die Notwendigkeit, Bias und Repräsentation in KI-Modellen mit Fingerspitzengefühl anzugehen.Die Bedeutung ethischer Überlegungen in der KI-Entwicklung wird immer deutlicher. Technologieunternehmen haben jedoch oft die Teams, die sich mit diesen schwierigen Fragen beschäftigen, entmachtet oder reduziert. Dies unterstreicht das Risiko für den Ruf der Unternehmen.
Die potenziellen Maßnahmen zur Milderung der Risiken durch KI – das Testen von Aufforderungen, das Verstehen der wahren Absichten der Nutzer und das Suchen nach tieferem sozialen Kontext – erfordern Zeit. Doch Zeit scheint genau die Ressource zu sein, die den Tech-Giganten im Wettbewerb um die Vorherrschaft in der KI fehlt. Es gibt keinen Grund zur Annahme, dass die jüngsten PR-Krisen die letzten ihrer Art sein werden.
Die Ereignisse rund um KI und Ethik, wie sie von Bloomberg berichtet wurden, werfen ein Licht auf die Herausforderungen, mit denen sich Technologieunternehmen konfrontiert sehen. Sie zeigen die Notwendigkeit, in der Entwicklung von KI-Systemen sowohl ethische als auch soziale Überlegungen zu berücksichtigen. Der Weg zu einer verantwortungsbewussten KI ist komplex, doch essentiell für die Zukunft der Technologie.
Quelle: Bloomberg
Titelbild: KI (Dall-e)
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen*) Links zu Amazon und ggf. anderen Shops sind sogenannte Affiliate-Links. Apfeltalk erhält eine kleine Provision von dem für euch unveränderten Kaufpreis.
Ab sofort bietet Apple das Belkin-Kopfband als neues Zubehör für die Vision Pro an. Apple listet das Produkt im Apple…
Apple verstärkt die Investitionen in seine Satellitentechnologie. Mit 1,1 Milliarden Dollar unterstützt das Unternehmen die Erweiterung der Infrastruktur von Satellitendiensten.…
Apple geht laut aktuellen Berichten des Analysten Ming-Chi Kuo eine neue Richtung im Chip-Design für das kommende iPhone 17. (mehr …)
In den vergangenen Tagen haben heftige Unwetter den Süden und Osten Spaniens erschüttert, was zu verheerenden Überschwemmungen führte. (mehr …)
Apple hat kürzlich drei neue Mac-Modelle vorgestellt – den iMac mit M4-Chip, das MacBook Pro M4 sowie einen Mac mini,…
Die Verkaufszahlen der Apple Vision Pro bleiben unter Verschluss. Dennoch lässt sich aus vielen Berichten schließen, dass der große Markterfolg…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen