Apple hat in einer neuen Studie untersucht, wie gut KI-Modelle logische Denkaufgaben bewältigen. Diese Forschung ist besonders wichtig, da Apple mit Apple Intelligence bald neue KI-Funktionen in iPhone, iPad und Mac einführt.Die Studie macht jedoch deutlich, dass aktuelle Large Language Models (LLMs), wie sie von OpenAI und Meta entwickelt werden, bei Aufgaben, die logisches Denken erfordern, Schwächen aufweisen.
Die Studie zeigt, dass viele KI-Modelle, darunter OpenAIs o1-mini und Metas Llama3-8b, Schwierigkeiten haben, wenn irrelevante Details in Aufgaben enthalten sind. Diese Modelle scheitern oft daran, sinnvolle Schlüsse zu ziehen. Ein Beispiel aus der Studie verdeutlicht dies:
„Oliver pflückt am Freitag 44 Kiwis. Am Samstag pflückt er 58 Kiwis. Am Sonntag pflückt er doppelt so viele Kiwis wie am Freitag, aber fünf davon sind etwas kleiner als der Durchschnitt. Wie viele Kiwis hat Oliver insgesamt?“
OpenAIs Modell o1-mini liefert in diesem Fall das falsche Ergebnis, weil es die Größe der fünf Kiwis falsch interpretiert. Statt die korrekte Zahl von 190 Kiwis anzugeben, kommt das Modell auf 185. Es subtrahiert fälschlicherweise die kleineren Kiwis, obwohl dies nicht Teil der Fragestellung war. Dieser Fehler zeigt, dass sich das Modell durch irrelevante Informationen verwirren lässt.
Die Studie macht deutlich, dass KI-Modelle besser darin sind, Muster zu erkennen oder Vergleiche anzustellen. Sie haben jedoch große Probleme, logische Schlussfolgerungen zu ziehen. Vor allem, wenn Aufgaben mit unnötigen Details versehen sind, fällt es den Modellen schwer, korrekt zu reagieren. Diese Schwäche begrenzt die Fähigkeit der KI, in realen Anwendungsszenarien präzise zu agieren. Dabei bleibt das Erkennen von logischen Zusammenhängen für die Entwickler:innen eine große Herausforderung.
Die Forscher:innen betonen, dass die getesteten LLMs zwar in der Lage sind, Datenmuster zu identifizieren, ihre Fähigkeit, logische Schlüsse zu ziehen, jedoch mangelhaft bleibt. Dies zeigt, dass eine reine Analyse von Daten oft nicht ausreicht, um sinnvolle Lösungen zu finden. Gerade bei Aufgaben, die komplexes Denken erfordern, müssen die Modelle in der Lage sein, irrelevante Informationen zu ignorieren und logische Zusammenhänge korrekt zu erkennen.
Die Studie macht klar, dass es noch viel zu tun gibt, bevor KI-Modelle komplexe Denkaufgaben zuverlässig lösen können. Apple und andere Entwickler:innen müssen die Schwächen der aktuellen LLMs weiter angehen, um die nächste Stufe der künstlichen Intelligenz zu erreichen. Besonders für Anwendungen, bei denen logische Schlüsse entscheidend sind, bleibt die Verbesserung dieser Technologie ein zentrales Ziel.
Via Arxiv
Apple Arcade hat sein Spielportfolio um sechs neue Titel erweitert. Zusätzlich gibt es umfangreiche Updates für bestehende Spiele. (mehr …)
Tim Sweeney, der CEO von Epic Games, hat jüngst erneut scharf gegen Apple und Google ausgeteilt. In Äußerungen auf einer…
Laut einem verlässlichen Leaker evaluiert Apple derzeit Prototypen eines OLED-Displays für das iPad mini. (mehr …)
Seit einiger Zeit können iPhone-Nutzer:innen in den Einstellungen festlegen, welche Standard-Apps für E-Mails, Browser oder Navigation genutzt werden sollen. (mehr …)
Apple-CEO Tim Cook hat kürzlich Apple-Aktien im Wert von über 24 Millionen Dollar verkauft. Laut einer Meldung an die US-Börsenaufsichtsbehörde…
Die Zusammenarbeit zwischen Apple und Goldman Sachs bei der Apple Card könnte schon bald Geschichte sein. Goldman Sachs hat Berichten…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen