Services

Superintelligenz – OpenAI gründet eigenes Team

Mit ChatGPT ist OpenAI ein großer Durchbruch in Sachen AI gelungen. Jetzt gründet die Firma ein eigenes Team rund um das Thema Superintelligenz – und deren Gefahren.

OpenAI, eine führende Organisation in der KI-Forschung, hat angekündigt, ein spezielles Team zur Bewältigung der Risiken von superintelligenten KI-Systemen zu bilden. Doch was bedeutet das für die Zukunft der KI?

Superintelligenz: Eine neue Ära der KI

Superintelligenz bezeichnet hypothetische KI-Modelle, die intelligenter sind als die klügsten Menschen und in mehreren Fachgebieten statt nur in einem Bereich hervorragende Leistungen erbringen. OpenAI geht davon aus, dass solche Modelle noch vor Ende des Jahrzehnts Realität werden könnten. „Superintelligenz wird die wirkungsvollste Technologie sein, die die Menschheit je erfunden hat und könnte uns helfen, viele der wichtigsten Probleme der Welt zu lösen“, so die Non-Profit-Organisation. Aber die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen.“

Kontrolle und Ausrichtung der Superintelligenz

Das neue Team wird von OpenAI Chief Scientist Ilya Sutskever und Jan Leike, dem Leiter der Ausrichtungsabteilung des Forschungslabors, geleitet. OpenAI plant zudem, 20 Prozent seiner derzeit gesicherten Rechenleistung für die Initiative bereitzustellen, mit dem Ziel, einen automatisierten Ausrichtungsforscher zu entwickeln. Ein solches System würde OpenAI theoretisch dabei helfen, sicherzustellen, dass eine Superintelligenz sicher zu nutzen und mit menschlichen Werten ausgerichtet ist. „Obwohl dies ein unglaublich ehrgeiziges Ziel ist und wir nicht garantiert erfolgreich sein werden, sind wir optimistisch, dass eine konzentrierte, konzertierte Anstrengung dieses Problem lösen kann“, so OpenAI.

Regulierung der KI: Eine globale Herausforderung

Die Ankündigung erfolgt zu einem Zeitpunkt, an dem Regierungen weltweit überlegen, wie sie die aufstrebende KI-Industrie regulieren sollen. In den USA hat Sam Altman, der CEO von OpenAI, in den letzten Monaten mindestens 100 Bundesgesetzgeber getroffen. Öffentlich hat Altman erklärt, dass eine KI-Regulierung „unverzichtbar“ ist und dass OpenAI „eifrig“ daran arbeitet, mit politischen Entscheidungsträgern zusammenzuarbeiten. Doch wir sollten solchen Proklamationen und tatsächlich auch Bemühungen wie dem Superausrichtungsteam von OpenAI skeptisch gegenüberstehen.

Via Engadget

Jan Gruber

Chefredakteur Magazin und Podcasts

Neueste Artikel

Apple zieht watchOS 11.4 überraschend zurück

Apple hat seine neueste Version von watchOS, Version 11.4, nur wenige Stunden nach Veröffentlichung ohne Angabe von Gründen wieder zurückgezogen.…

31. März 2025

visionOS 2.4 bringt Apple Intelligence und neue immersive Inhalte auf die Apple Vision Pro

Apple hat heute visionOS 2.4 veröffentlicht – ein umfassendes Update für die Apple Vision Pro, das erstmals Apple Intelligence Funktionen,…

31. März 2025

iOS 18.4, iPadOS 18.4, macOS Sequoia 15.4 und watchOS 11.4: Apple bringt KI, neue Funktionen und Systemoptimierungen

Apple hat mit der Veröffentlichung von iOS 18.4, iPadOS 18.4, macOS Sequoia 15.4 und watchOS 11.4 ein umfangreiches Softwarepaket ausgeliefert.…

31. März 2025

Apple erhält ungewöhnliche Geldstrafe von 162 Millionen Dollar wegen App-Tracking-Transparenz

Apple wurde von der französischen Wettbewerbsbehörde wegen seiner App-Tracking-Transparenz (ATT) zu einer Geldstrafe von 162 Millionen Dollar verurteilt. (mehr …)

31. März 2025

Apple Health App erhält umfangreiche KI-Funktionen mit iOS 19

Apple plant, seine Health App mit dem Update auf iOS 19 umfassend zu erweitern. Die zentrale Neuerung ist ein KI-basierter…

31. März 2025

Apple-Chips aus den USA: TSMC will Rückstand aufholen

Im Jahr 2022 kündigte Apple an, zukünftige Chips auch in den USA herstellen zu lassen. Die Umsetzung dieses Versprechens gestaltete…

31. März 2025

Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.

Mehr lesen