• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.030
OpenAILogo-700x401.jpg


Jan Gruber
Seit bald einem Jahr ist ChatGPT in aller Munde, viele Stellen mach sich seit dem Gedanken über diverse KI-Risiken. OpenAI möchte hier neue Lösungen bieten.

Das KI-Forschungsunternehmen OpenAI nimmt die Bedrohungen durch Künstliche Intelligenz ernst. Ein neu gebildetes Team widmet sich genau diesen Risiken. Das Ziel: Potenzielle Gefahren erkennen und abmildern. Was bedeutet das für uns?

Risiken im Visier: Von nuklearen Bedrohungen bis zur Selbstreplikation​


Das sogenannte Bereitschaftsteam soll verschiedene Risiken im Auge behalten. Das Spektrum ist breit. Es reicht von nuklearen Bedrohungen bis zu chemischen, biologischen und radiologischen Gefahren. Ein besonderes Augenmerk liegt auf der autonomen Replikation von KI. Auch Täuschung durch KI und Cybersicherheitsbedrohungen stehen auf dem Plan.

KI-Risiken: Ein Team mit Mission und Vision​


OpenAI ist sich der ernsten Risiken bewusst, die mit fortschrittlichen KI-Modellen einhergehen können. "KI-Modelle mit überragenden Fähigkeiten können der gesamten Menschheit zugutekommen", heißt es von OpenAI. Doch das Unternehmen betont auch: "Sie bergen zunehmend ernsthafte Risiken." Das Bereitschaftsteam soll dazu beitragen, diese Risiken zu minimieren. Dabei geht es nicht nur um die Entwicklung risikoinformierter Politiken. Auch die Bewertung und Überwachung von KI-Modellen sind zentrale Aufgaben.

Expertise an der Spitze: Aleksander Madry übernimmt die Leitung​


Aleksander Madry, bisher Direktor des MIT Center for Deployable Machine Learning, steht an der Spitze des neuen Teams. Seine Erfahrung und Expertise sind für diese herausfordernde Aufgabe unverzichtbar. Sam Altman, der CEO von OpenAI, hat bereits zuvor auf die Dringlichkeit hingewiesen, KI-Risiken zu adressieren. Er fordert, dass der Umgang mit KI-Technologien so ernst genommen wird wie Atomwaffen.

Via The Verge

Den Artikel im Magazin lesen.
 
  • Like
Reaktionen: Thaddäus