- Registriert
- 01.11.16
- Beiträge
- 15.030
Jan Gruber
Seit bald einem Jahr ist ChatGPT in aller Munde, viele Stellen mach sich seit dem Gedanken über diverse KI-Risiken. OpenAI möchte hier neue Lösungen bieten.
Das KI-Forschungsunternehmen OpenAI nimmt die Bedrohungen durch Künstliche Intelligenz ernst. Ein neu gebildetes Team widmet sich genau diesen Risiken. Das Ziel: Potenzielle Gefahren erkennen und abmildern. Was bedeutet das für uns?
Risiken im Visier: Von nuklearen Bedrohungen bis zur Selbstreplikation
Das sogenannte Bereitschaftsteam soll verschiedene Risiken im Auge behalten. Das Spektrum ist breit. Es reicht von nuklearen Bedrohungen bis zu chemischen, biologischen und radiologischen Gefahren. Ein besonderes Augenmerk liegt auf der autonomen Replikation von KI. Auch Täuschung durch KI und Cybersicherheitsbedrohungen stehen auf dem Plan.
KI-Risiken: Ein Team mit Mission und Vision
OpenAI ist sich der ernsten Risiken bewusst, die mit fortschrittlichen KI-Modellen einhergehen können. "KI-Modelle mit überragenden Fähigkeiten können der gesamten Menschheit zugutekommen", heißt es von OpenAI. Doch das Unternehmen betont auch: "Sie bergen zunehmend ernsthafte Risiken." Das Bereitschaftsteam soll dazu beitragen, diese Risiken zu minimieren. Dabei geht es nicht nur um die Entwicklung risikoinformierter Politiken. Auch die Bewertung und Überwachung von KI-Modellen sind zentrale Aufgaben.
Expertise an der Spitze: Aleksander Madry übernimmt die Leitung
Aleksander Madry, bisher Direktor des MIT Center for Deployable Machine Learning, steht an der Spitze des neuen Teams. Seine Erfahrung und Expertise sind für diese herausfordernde Aufgabe unverzichtbar. Sam Altman, der CEO von OpenAI, hat bereits zuvor auf die Dringlichkeit hingewiesen, KI-Risiken zu adressieren. Er fordert, dass der Umgang mit KI-Technologien so ernst genommen wird wie Atomwaffen.
Via The Verge
Den Artikel im Magazin lesen.