Apple-Mitgründer Steve Wozniak hat sich Elon Musk und führenden KI-Wissenschaftlern angeschlossen und fordert einen Stopp der fortschrittlichen KI-Entwicklung.
Konkret fordert der offene Brief eine Pause von mindestens sechs Monaten in der Entwicklung von KI-Systemen, die leistungsstärker sind als GPT-4.
Der Brief besagt, dass die derzeitige KI-Entwicklung außer Kontrolle geraten ist und „tiefgreifende Risiken für die Gesellschaft und die Menschheit“ darstellen kann.
Wie in den weit verbreiteten Asilomar-KI-Prinzipien festgelegt, könnte fortgeschrittene KI eine tiefgreifende Veränderung in der Geschichte des Lebens auf der Erde darstellen. Dies sollte mit angemessener Sorgfalt und Ressourcen geplant und verwaltet werden. Leider findet diese Art der Planung und Verwaltung nicht statt, obwohl in den letzten Monaten KI-Labore in einem außer Kontrolle geratenen Rennen um die Entwicklung und Bereitstellung immer leistungsstärkerer digitaler Köpfe verwickelt sind, die niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren können.
KI-Systeme gefährden Arbeitsplätze
Der Brief besagt, dass KI-Systeme viele Arbeitsplätze gefährden und stellt eine Reihe von Fragen.
Sollten wir Maschinen zulassen, unsere Informationskanäle mit Propaganda und Unwahrheiten zu fluten? Sollten wir alle Jobs automatisieren, auch die erfüllenden? Sollten wir nichtmenschliche Gedanken entwickeln, die uns irgendwann an Zahl, Intelligenz und Leistung übertreffen, obsolet machen und ersetzen? Sollten wir das Risiko des Kontrollverlusts unserer Zivilisation eingehen?
Der Entwickler von ChatGPT, OpenAI, hat selbst zuvor angedeutet, dass eine solche Pause irgendwann notwendig sein könnte, und der Brief besagt, dass dieser Zeitpunkt gekommen ist.
In einer kürzlichen Erklärung von OpenAI zu künstlicher allgemeiner Intelligenz heißt es: „Es kann irgendwann wichtig sein, unabhängige Bewertungen einzuholen, bevor man damit beginnt, zukünftige Systeme zu trainieren, und für die fortschrittlichsten Bemühungen, sich auf eine Begrenzung des Wachstums des berechneten Aufwands für die Erstellung neuer Modelle zu einigen.“ Dem stimmen wir zu. Dieser Zeitpunkt ist jetzt.
Kein gesamter Stopp gefordert
Der Brief betont ausdrücklich, dass die Unterzeichner nicht einen Stopp der gesamten KI-Entwicklung fordern, sondern nur „den gefährlichen Wettlauf um immer größere, unvorhersehbare Black-Box-Modelle mit emergenten Fähigkeiten“.
Weitere bekannte Unterzeichner sind eine lange Liste von auf KI spezialisierten Wissenschaftlern sowie leitende Führungskräfte von Technologieunternehmen.
Der Brief kann hier im Original nachgelesen werden.
Quelle: 9To5Mac