OpenAI, der Entwickler hinter ChatGPT, präsentiert ein umfassendes Sicherheitskonzept für seine KI-Modelle. Dieses Konzept soll Risiken in vier Schlüsselbereichen bewerten und minimieren.
Die Risiken werden in vier Bereichen bewertet: Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohungen, Überzeugungskraft und Modellautonomie. Jede Kategorie erhält eine Risikostufe von „niedrig“ bis „kritisch“.
Für jede Risikokategorie werden spezifische Sicherheitsmaßnahmen vorgesehen. Ziel ist es, dass nur Modelle mit maximal „mittlerem“ Risiko eingesetzt werden. Modelle mit „kritischer“ Risikostufe dürfen nicht weiterentwickelt werden.
Die Einführung von ChatGPT hat nicht nur Interesse, sondern auch Bedenken geweckt. Viele Menschen sehen in KI eine potenzielle Bedrohung für die menschliche Zivilisation. OpenAI reagiert darauf mit seinem neuen Sicherheitskonzept.
Via Der Standard
In einem Interview mit WIRED hat Apples CEO Tim Cook eine klare Aussage getroffen: Apple hat "nie darüber gesprochen", für…
Der weltweite App-Markt hat 2024 ein beeindruckendes Wachstum erlebt, obwohl die Downloadzahlen zurückgegangen sind. (mehr …)
Die Organisation „Reporter ohne Grenzen“ (RSF) fordert Apple auf, die Zusammenfassungsfunktion seiner Apple-Intelligence-KI zu entfernen. Der Aufruf kommt nach einem…
Apple arbeitet bereits an der nächsten Aktualisierung für iPhones mit iOS 18.2.1, die in den kommenden Wochen veröffentlicht werden könnte.…
Der Anker USB-C Hub, 10-in-1 Aluminium-Monitorstandfuß, kombiniert eine Dockingstation mit einem ergonomischen Monitorständer. Die Lösung richtet sich an Nutzer:innen, die…
Das Jahr 2025 verspricht ein aufregendes Jahr für Apple zu werden, mit einer Vielzahl neuer Produkte und Technologien. Von einem…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen