• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick
  • Auch in diesem Jahr möchten wir auf unserer Webseite mit einem passenden Banner etwas weihnachtliche Stimmung verbreiten. Jeder Apfeltalker kann, darf und sollte uns einen Banner-Entwurf zusenden, wie und wo das geht, könnt Ihr hier nachlesen --> Klick

Superintelligenz - OpenAI gründet eigenes Team

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.031
chatGPT-App-Hero-700x401.jpg


Jan Gruber
Mit ChatGPT ist OpenAI ein großer Durchbruch in Sachen AI gelungen. Jetzt gründet die Firma ein eigenes Team rund um das Thema Superintelligenz - und deren Gefahren.

OpenAI, eine führende Organisation in der KI-Forschung, hat angekündigt, ein spezielles Team zur Bewältigung der Risiken von superintelligenten KI-Systemen zu bilden. Doch was bedeutet das für die Zukunft der KI?

Superintelligenz: Eine neue Ära der KI​


Superintelligenz bezeichnet hypothetische KI-Modelle, die intelligenter sind als die klügsten Menschen und in mehreren Fachgebieten statt nur in einem Bereich hervorragende Leistungen erbringen. OpenAI geht davon aus, dass solche Modelle noch vor Ende des Jahrzehnts Realität werden könnten. "Superintelligenz wird die wirkungsvollste Technologie sein, die die Menschheit je erfunden hat und könnte uns helfen, viele der wichtigsten Probleme der Welt zu lösen", so die Non-Profit-Organisation. Aber die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen."

Kontrolle und Ausrichtung der Superintelligenz​


Das neue Team wird von OpenAI Chief Scientist Ilya Sutskever und Jan Leike, dem Leiter der Ausrichtungsabteilung des Forschungslabors, geleitet. OpenAI plant zudem, 20 Prozent seiner derzeit gesicherten Rechenleistung für die Initiative bereitzustellen, mit dem Ziel, einen automatisierten Ausrichtungsforscher zu entwickeln. Ein solches System würde OpenAI theoretisch dabei helfen, sicherzustellen, dass eine Superintelligenz sicher zu nutzen und mit menschlichen Werten ausgerichtet ist. "Obwohl dies ein unglaublich ehrgeiziges Ziel ist und wir nicht garantiert erfolgreich sein werden, sind wir optimistisch, dass eine konzentrierte, konzertierte Anstrengung dieses Problem lösen kann", so OpenAI.

Regulierung der KI: Eine globale Herausforderung​


Die Ankündigung erfolgt zu einem Zeitpunkt, an dem Regierungen weltweit überlegen, wie sie die aufstrebende KI-Industrie regulieren sollen. In den USA hat Sam Altman, der CEO von OpenAI, in den letzten Monaten mindestens 100 Bundesgesetzgeber getroffen. Öffentlich hat Altman erklärt, dass eine KI-Regulierung "unverzichtbar" ist und dass OpenAI "eifrig" daran arbeitet, mit politischen Entscheidungsträgern zusammenzuarbeiten. Doch wir sollten solchen Proklamationen und tatsächlich auch Bemühungen wie dem Superausrichtungsteam von OpenAI skeptisch gegenüberstehen.

Via Engadget

Den Artikel im Magazin lesen.