OpenAI, der Entwickler hinter ChatGPT, präsentiert ein umfassendes Sicherheitskonzept für seine KI-Modelle. Dieses Konzept soll Risiken in vier Schlüsselbereichen bewerten und minimieren.
Die Risiken werden in vier Bereichen bewertet: Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohungen, Überzeugungskraft und Modellautonomie. Jede Kategorie erhält eine Risikostufe von „niedrig“ bis „kritisch“.
Für jede Risikokategorie werden spezifische Sicherheitsmaßnahmen vorgesehen. Ziel ist es, dass nur Modelle mit maximal „mittlerem“ Risiko eingesetzt werden. Modelle mit „kritischer“ Risikostufe dürfen nicht weiterentwickelt werden.
Die Einführung von ChatGPT hat nicht nur Interesse, sondern auch Bedenken geweckt. Viele Menschen sehen in KI eine potenzielle Bedrohung für die menschliche Zivilisation. OpenAI reagiert darauf mit seinem neuen Sicherheitskonzept.
Via Der Standard
Apple startet sein Shopping-Event am 29. November. Kauft man ein qualifiziertes Produkt erhält man vom Konzern bis zu 200 Euro…
Die indonesische Regierung wird am Donnerstag über ein 100-Millionen-Dollar-Investitionsangebot von Apple beraten. Dieses Angebot ist Teil des Versuchs, das Verkaufsverbot…
Die dritte Public Beta von iOS 18.2 ist jetzt verfügbar und bringt kleinere Verbesserungen, Bugfixes und Performance-Optimierungen. Mit der Veröffentlichung…
Im Mai 2023 führte Apple mit den sogenannten "Schnellen Sicherheitsmaßnahmen" (englisch: Rapid Security Responses) eine neue Methode ein, um Sicherheitslücken…
Shazam, die beliebte Musikerkennungs-App von Apple, hat einen beeindruckenden Rekord erreicht: Über 100 Milliarden Songs wurden seit der Einführung des…
Apple steht vor einer entscheidenden Anhörung, bei der das Unternehmen versuchen wird, einen US-Monopolprozess gegen sich abzuwehren. Der Fall, eingereicht…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen