• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.030
OpenAILogo-700x401.jpg


Jan Gruber
OpenAI, der Entwickler hinter ChatGPT, präsentiert ein umfassendes Sicherheitskonzept für seine KI-Modelle. Dieses Konzept soll Risiken in vier Schlüsselbereichen bewerten und minimieren.

Risikobewertung in vier Kategorien​


Die Risiken werden in vier Bereichen bewertet: Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohungen, Überzeugungskraft und Modellautonomie. Jede Kategorie erhält eine Risikostufe von "niedrig" bis "kritisch".

Kontrolle und Sicherheitsmaßnahmen​


Für jede Risikokategorie werden spezifische Sicherheitsmaßnahmen vorgesehen. Ziel ist es, dass nur Modelle mit maximal "mittlerem" Risiko eingesetzt werden. Modelle mit "kritischer" Risikostufe dürfen nicht weiterentwickelt werden.

Sicherheitskonzept, Öffentliches Interesse und Bedenken​


Die Einführung von ChatGPT hat nicht nur Interesse, sondern auch Bedenken geweckt. Viele Menschen sehen in KI eine potenzielle Bedrohung für die menschliche Zivilisation. OpenAI reagiert darauf mit seinem neuen Sicherheitskonzept.

Via Der Standard

Den Artikel im Magazin lesen.