News

ChatGPT blockierte 250.000 Anfragen zu Wahlfälschung und verweigerte Deepfakes

OpenAI veröffentlichte Ergebnisse seiner Maßnahmen zur US-Präsidentschaftswahl 2024 und enthüllte dabei die bemerkenswerte Zahl an blockierten Anfragen. ChatGPT lehnte insgesamt über 250.000 Anfragen ab, die darauf abzielten, wahlbezogene Inhalte zu manipulieren oder Deepfakes zu erstellen. Dieser Erfolg spiegelt die Strategie von OpenAI wider, Fehlinformationen und die Erstellung von Bildmanipulationen während der Wahlsaison zu verhindern. Der KI-Bildgenerator DALL-E wies ebenfalls viele Versuche ab, Deepfakes von Präsident Biden, dem gewählten Präsidenten Trump, Vizepräsidentin Harris und weiteren politischen Persönlichkeiten zu erzeugen. OpenAI hatte im Vorfeld Sicherheitsmaßnahmen implementiert, um Anfragen zur Erstellung von Inhalten mit realen Personen abzuweisen.

OpenAIs Wahlstrategie: Fehlinformationen aktiv verhindern

OpenAI bereitete sich seit Jahresbeginn auf die US-Präsidentschaftswahl vor. Ziel war es, die Verbreitung von Fehlinformationen und gezielten Manipulationen durch ChatGPT zu unterbinden. Der Chatbot verwies Personen, die Informationen zur Wahl suchten, an vertrauenswürdige Quellen wie CanIVote.org. Allein im Monat vor dem Wahltag wurden 1 Million Anfragen zu dieser Informationsseite umgeleitet. Am Wahltag selbst und am Folgetag generierte ChatGPT über 2 Millionen Antworten und verwies dabei ausschließlich auf Nachrichtenquellen wie Associated Press und Reuters.

Neutralität und Sicherheit: ChatGPT ohne politische Präferenzen

OpenAI stellte sicher, dass ChatGPT keine politischen Präferenzen ausdrückte oder Kandidaten empfahl. Selbst explizite Anfragen in diese Richtung wurden abgelehnt, um eine neutrale und unverfälschte Informationsvermittlung zu gewährleisten. Diese Strategie half, gezielte Manipulationsversuche zu reduzieren und vertrauenswürdige Informationen zu Wahlthemen bereitzustellen.

Deepfakes und Social Media: Ein anhaltendes Problem

Während OpenAIs Schutzmaßnahmen erfolgreich zahlreiche Deepfake-Anfragen abwiesen, blieb die Verbreitung von manipulierten Inhalten ein Problem auf Social Media. Trotz der Maßnahmen von OpenAI kursierten wahlbezogene Deepfakes, wie etwa ein manipuliertes Video, das Vizepräsidentin Kamala Harris falsche Aussagen in den Mund legte. OpenAI betonte die Wichtigkeit von Standards und Maßnahmen, um die Verbreitung von Fehlinformationen und Manipulationen in sozialen Netzwerken einzudämmen.

Mit dieser umfassenden Strategie demonstrierte OpenAI, wie KI-Entwickler die Integrität von Wahlen aktiv unterstützen können. ChatGPT und DALL-E bieten damit ein Beispiel für verantwortungsbewussten KI-Einsatz in politisch sensiblen Zeiten.

Via Engadget

Jan Gruber

Chefredakteur Magazin und Podcasts

Neueste Artikel

Nuki stellt das neue Smart Lock Ultra vor

Nuki hat mit dem Smart Lock Ultra eine neue Generation seiner smarten Türschlösser vorgestellt. Diese neue Lösung, die sich über…

13. November 2024

iBood Hunt November 2024 gestartet

Heute um Mitternacht ist der iBood Hunt November 2024 gestartet. Bei dieser Aktion gibt es bei iBood viele Angebote mit…

13. November 2024

The Secret Lives of Animals: Apple kündigt neue Naturdoku an

Apple TV+ erweitert sein Dokumentationsangebot mit der neuen Natur-Dokuserie „The Secret Lives of Animals“. (mehr …)

13. November 2024

Apple plant Veröffentlichung eines wandmontierten Smart Displays mit Apple Intelligence im März

Apple zielt darauf ab, bereits im März sein erstes Apple-Intelligence-gesteuertes Smart-Home-Gerät auf den Markt zu bringen. Laut einem Bloomberg-Bericht wird…

13. November 2024

Apple sieht sich in China mit einer App-Store-Klage konfrontiert

Apple steht in China vor einer Klage des Entwicklers Beijing Bodyreader, die Ähnlichkeiten mit dem prominenten Rechtsstreit von Epic Games…

12. November 2024

7B21: Neues Firmware-Update für AirPods

Apple hat ein neues Firmware-Update für die AirPods Pro 2 (mit Lightning- und USB-C Case) sowie die AirPods 4 veröffentlicht.…

12. November 2024

Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.

Mehr lesen