Apple hat in einer neuen Studie untersucht, wie gut KI-Modelle logische Denkaufgaben bewältigen. Diese Forschung ist besonders wichtig, da Apple mit Apple Intelligence bald neue KI-Funktionen in iPhone, iPad und Mac einführt.Die Studie macht jedoch deutlich, dass aktuelle Large Language Models (LLMs), wie sie von OpenAI und Meta entwickelt werden, bei Aufgaben, die logisches Denken erfordern, Schwächen aufweisen.
Die Studie zeigt, dass viele KI-Modelle, darunter OpenAIs o1-mini und Metas Llama3-8b, Schwierigkeiten haben, wenn irrelevante Details in Aufgaben enthalten sind. Diese Modelle scheitern oft daran, sinnvolle Schlüsse zu ziehen. Ein Beispiel aus der Studie verdeutlicht dies:
„Oliver pflückt am Freitag 44 Kiwis. Am Samstag pflückt er 58 Kiwis. Am Sonntag pflückt er doppelt so viele Kiwis wie am Freitag, aber fünf davon sind etwas kleiner als der Durchschnitt. Wie viele Kiwis hat Oliver insgesamt?“
OpenAIs Modell o1-mini liefert in diesem Fall das falsche Ergebnis, weil es die Größe der fünf Kiwis falsch interpretiert. Statt die korrekte Zahl von 190 Kiwis anzugeben, kommt das Modell auf 185. Es subtrahiert fälschlicherweise die kleineren Kiwis, obwohl dies nicht Teil der Fragestellung war. Dieser Fehler zeigt, dass sich das Modell durch irrelevante Informationen verwirren lässt.
Die Studie macht deutlich, dass KI-Modelle besser darin sind, Muster zu erkennen oder Vergleiche anzustellen. Sie haben jedoch große Probleme, logische Schlussfolgerungen zu ziehen. Vor allem, wenn Aufgaben mit unnötigen Details versehen sind, fällt es den Modellen schwer, korrekt zu reagieren. Diese Schwäche begrenzt die Fähigkeit der KI, in realen Anwendungsszenarien präzise zu agieren. Dabei bleibt das Erkennen von logischen Zusammenhängen für die Entwickler:innen eine große Herausforderung.
Die Forscher:innen betonen, dass die getesteten LLMs zwar in der Lage sind, Datenmuster zu identifizieren, ihre Fähigkeit, logische Schlüsse zu ziehen, jedoch mangelhaft bleibt. Dies zeigt, dass eine reine Analyse von Daten oft nicht ausreicht, um sinnvolle Lösungen zu finden. Gerade bei Aufgaben, die komplexes Denken erfordern, müssen die Modelle in der Lage sein, irrelevante Informationen zu ignorieren und logische Zusammenhänge korrekt zu erkennen.
Die Studie macht klar, dass es noch viel zu tun gibt, bevor KI-Modelle komplexe Denkaufgaben zuverlässig lösen können. Apple und andere Entwickler:innen müssen die Schwächen der aktuellen LLMs weiter angehen, um die nächste Stufe der künstlichen Intelligenz zu erreichen. Besonders für Anwendungen, bei denen logische Schlüsse entscheidend sind, bleibt die Verbesserung dieser Technologie ein zentrales Ziel.
Via Arxiv
Apples jährliche Software-Updates für das iPhone gelten als essenzieller Bestandteil des Benutzererlebnisses. Mit iOS 18 verfolgt Apple jedoch erstmals einen…
Nach einer ausgedehnten Europareise wird Apple-CEO Tim Cook seine Geschäftsreisen Gerüchten zufolge mit einem Treffen mit dem zukünftigen US-Präsidenten Donald…
Apple hat laut einem Bericht von DigiTimes die NPI-Phase (New Product Introduction) für das kommende iPhone 17 Air gestartet. Dieses…
Microsoft arbeitet an einer Lösung, um den Dateiaustausch zwischen iPhones und Windows-PCs einfacher zu gestalten. Die neueste Funktion von „Phone…
Zehn Jahre nach dem ersten Monument Valley bringt das Studio ustwo games den dritten Teil der gefeierten Puzzle-Reihe heraus. „Monument…
Google DeepMind hat Ende letzter Woche die neue Version seiner KI-Plattform vorgestellt: Gemini 2.0. (mehr …)
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen