OpenAI, der Entwickler hinter ChatGPT, präsentiert ein umfassendes Sicherheitskonzept für seine KI-Modelle. Dieses Konzept soll Risiken in vier Schlüsselbereichen bewerten und minimieren.
Die Risiken werden in vier Bereichen bewertet: Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohungen, Überzeugungskraft und Modellautonomie. Jede Kategorie erhält eine Risikostufe von „niedrig“ bis „kritisch“.
Für jede Risikokategorie werden spezifische Sicherheitsmaßnahmen vorgesehen. Ziel ist es, dass nur Modelle mit maximal „mittlerem“ Risiko eingesetzt werden. Modelle mit „kritischer“ Risikostufe dürfen nicht weiterentwickelt werden.
Die Einführung von ChatGPT hat nicht nur Interesse, sondern auch Bedenken geweckt. Viele Menschen sehen in KI eine potenzielle Bedrohung für die menschliche Zivilisation. OpenAI reagiert darauf mit seinem neuen Sicherheitskonzept.
Via Der Standard
Die Europäische Kommission (EK) hat laut einem Bericht des Wall Street Journal die Bekanntgabe geplanter Sanktionsmaßnahmen gegen Apple und Meta…
Mit dem kommenden iOS 19 plant Apple nicht nur ein umfassendes Redesign, sondern auch die Einführung eines neuen Dienstes, der…
Die zentrale Sicherheitsdatenbank Common Vulnerabilities and Exposures (CVE) war für kurze Zeit von der Schließung bedroht, da das US-Heimatschutzministerium (DHS) die Finanzierung…
Mit dem Ende des Open-Source-Softwareprojekts Whisky verliert die Mac-Community eine spannende Lösung, um Windows-Spiele auf Apple Silicon-Geräten ohne Portierungslösungen auszuführen. (mehr …)
Am 22. April 2025, dem internationalen Earth Day, lädt Apple erneut zu einer speziellen Apple Watch Herausforderung ein. (mehr …)
Ein mutmaßlich überarbeitetes Stromkabel für ein zukünftiges Apple-Headset mit dem Namen „Vision Air“ ist jetzt erstmals auf neuen Bildern zu…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen