OpenAI, der Entwickler hinter ChatGPT, präsentiert ein umfassendes Sicherheitskonzept für seine KI-Modelle. Dieses Konzept soll Risiken in vier Schlüsselbereichen bewerten und minimieren.
Risikobewertung in vier Kategorien
Die Risiken werden in vier Bereichen bewertet: Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohungen, Überzeugungskraft und Modellautonomie. Jede Kategorie erhält eine Risikostufe von „niedrig“ bis „kritisch“.
Kontrolle und Sicherheitsmaßnahmen
Für jede Risikokategorie werden spezifische Sicherheitsmaßnahmen vorgesehen. Ziel ist es, dass nur Modelle mit maximal „mittlerem“ Risiko eingesetzt werden. Modelle mit „kritischer“ Risikostufe dürfen nicht weiterentwickelt werden.
Sicherheitskonzept, Öffentliches Interesse und Bedenken
Die Einführung von ChatGPT hat nicht nur Interesse, sondern auch Bedenken geweckt. Viele Menschen sehen in KI eine potenzielle Bedrohung für die menschliche Zivilisation. OpenAI reagiert darauf mit seinem neuen Sicherheitskonzept.
Via Der Standard