- Registriert
- 15.06.24
- Beiträge
- 26.414
Geschrieben von: Jan Gruber
OpenAI veröffentlichte Ergebnisse seiner Maßnahmen zur US-Präsidentschaftswahl 2024 und enthüllte dabei die bemerkenswerte Zahl an blockierten Anfragen. ChatGPT lehnte insgesamt über 250.000 Anfragen ab, die darauf abzielten, wahlbezogene Inhalte zu manipulieren oder Deepfakes zu erstellen. Dieser Erfolg spiegelt die Strategie von OpenAI wider, Fehlinformationen und die Erstellung von Bildmanipulationen während der Wahlsaison zu verhindern. Der KI-Bildgenerator DALL-E wies ebenfalls viele Versuche ab, Deepfakes von Präsident Biden, dem gewählten Präsidenten Trump, Vizepräsidentin Harris und weiteren politischen Persönlichkeiten zu erzeugen. OpenAI hatte im Vorfeld Sicherheitsmaßnahmen implementiert, um Anfragen zur Erstellung von Inhalten mit realen Personen abzuweisen.
OpenAI bereitete sich seit Jahresbeginn auf die US-Präsidentschaftswahl vor. Ziel war es, die Verbreitung von Fehlinformationen und gezielten Manipulationen durch ChatGPT zu unterbinden. Der Chatbot verwies Personen, die Informationen zur Wahl suchten, an vertrauenswürdige Quellen wie CanIVote.org. Allein im Monat vor dem Wahltag wurden 1 Million Anfragen zu dieser Informationsseite umgeleitet. Am Wahltag selbst und am Folgetag generierte ChatGPT über 2 Millionen Antworten und verwies dabei ausschließlich auf Nachrichtenquellen wie Associated Press und Reuters.
OpenAI stellte sicher, dass ChatGPT keine politischen Präferenzen ausdrückte oder Kandidaten empfahl. Selbst explizite Anfragen in diese Richtung wurden abgelehnt, um eine neutrale und unverfälschte Informationsvermittlung zu gewährleisten. Diese Strategie half, gezielte Manipulationsversuche zu reduzieren und vertrauenswürdige Informationen zu Wahlthemen bereitzustellen.
Während OpenAIs Schutzmaßnahmen erfolgreich zahlreiche Deepfake-Anfragen abwiesen, blieb die Verbreitung von manipulierten Inhalten ein Problem auf Social Media. Trotz der Maßnahmen von OpenAI kursierten wahlbezogene Deepfakes, wie etwa ein manipuliertes Video, das Vizepräsidentin Kamala Harris falsche Aussagen in den Mund legte. OpenAI betonte die Wichtigkeit von Standards und Maßnahmen, um die Verbreitung von Fehlinformationen und Manipulationen in sozialen Netzwerken einzudämmen.
Mit dieser umfassenden Strategie demonstrierte OpenAI, wie KI-Entwickler die Integrität von Wahlen aktiv unterstützen können. ChatGPT und DALL-E bieten damit ein Beispiel für verantwortungsbewussten KI-Einsatz in politisch sensiblen Zeiten.
Via Engadget
Im Magazin lesen....
OpenAI veröffentlichte Ergebnisse seiner Maßnahmen zur US-Präsidentschaftswahl 2024 und enthüllte dabei die bemerkenswerte Zahl an blockierten Anfragen. ChatGPT lehnte insgesamt über 250.000 Anfragen ab, die darauf abzielten, wahlbezogene Inhalte zu manipulieren oder Deepfakes zu erstellen. Dieser Erfolg spiegelt die Strategie von OpenAI wider, Fehlinformationen und die Erstellung von Bildmanipulationen während der Wahlsaison zu verhindern. Der KI-Bildgenerator DALL-E wies ebenfalls viele Versuche ab, Deepfakes von Präsident Biden, dem gewählten Präsidenten Trump, Vizepräsidentin Harris und weiteren politischen Persönlichkeiten zu erzeugen. OpenAI hatte im Vorfeld Sicherheitsmaßnahmen implementiert, um Anfragen zur Erstellung von Inhalten mit realen Personen abzuweisen.
OpenAIs Wahlstrategie: Fehlinformationen aktiv verhindern
OpenAI bereitete sich seit Jahresbeginn auf die US-Präsidentschaftswahl vor. Ziel war es, die Verbreitung von Fehlinformationen und gezielten Manipulationen durch ChatGPT zu unterbinden. Der Chatbot verwies Personen, die Informationen zur Wahl suchten, an vertrauenswürdige Quellen wie CanIVote.org. Allein im Monat vor dem Wahltag wurden 1 Million Anfragen zu dieser Informationsseite umgeleitet. Am Wahltag selbst und am Folgetag generierte ChatGPT über 2 Millionen Antworten und verwies dabei ausschließlich auf Nachrichtenquellen wie Associated Press und Reuters.
Neutralität und Sicherheit: ChatGPT ohne politische Präferenzen
OpenAI stellte sicher, dass ChatGPT keine politischen Präferenzen ausdrückte oder Kandidaten empfahl. Selbst explizite Anfragen in diese Richtung wurden abgelehnt, um eine neutrale und unverfälschte Informationsvermittlung zu gewährleisten. Diese Strategie half, gezielte Manipulationsversuche zu reduzieren und vertrauenswürdige Informationen zu Wahlthemen bereitzustellen.
Deepfakes und Social Media: Ein anhaltendes Problem
Während OpenAIs Schutzmaßnahmen erfolgreich zahlreiche Deepfake-Anfragen abwiesen, blieb die Verbreitung von manipulierten Inhalten ein Problem auf Social Media. Trotz der Maßnahmen von OpenAI kursierten wahlbezogene Deepfakes, wie etwa ein manipuliertes Video, das Vizepräsidentin Kamala Harris falsche Aussagen in den Mund legte. OpenAI betonte die Wichtigkeit von Standards und Maßnahmen, um die Verbreitung von Fehlinformationen und Manipulationen in sozialen Netzwerken einzudämmen.
Mit dieser umfassenden Strategie demonstrierte OpenAI, wie KI-Entwickler die Integrität von Wahlen aktiv unterstützen können. ChatGPT und DALL-E bieten damit ein Beispiel für verantwortungsbewussten KI-Einsatz in politisch sensiblen Zeiten.
Via Engadget
Im Magazin lesen....