Apple hat in einer neuen Studie untersucht, wie gut KI-Modelle logische Denkaufgaben bewältigen. Diese Forschung ist besonders wichtig, da Apple mit Apple Intelligence bald neue KI-Funktionen in iPhone, iPad und Mac einführt.Die Studie macht jedoch deutlich, dass aktuelle Large Language Models (LLMs), wie sie von OpenAI und Meta entwickelt werden, bei Aufgaben, die logisches Denken erfordern, Schwächen aufweisen.
Die Studie zeigt, dass viele KI-Modelle, darunter OpenAIs o1-mini und Metas Llama3-8b, Schwierigkeiten haben, wenn irrelevante Details in Aufgaben enthalten sind. Diese Modelle scheitern oft daran, sinnvolle Schlüsse zu ziehen. Ein Beispiel aus der Studie verdeutlicht dies:
„Oliver pflückt am Freitag 44 Kiwis. Am Samstag pflückt er 58 Kiwis. Am Sonntag pflückt er doppelt so viele Kiwis wie am Freitag, aber fünf davon sind etwas kleiner als der Durchschnitt. Wie viele Kiwis hat Oliver insgesamt?“
OpenAIs Modell o1-mini liefert in diesem Fall das falsche Ergebnis, weil es die Größe der fünf Kiwis falsch interpretiert. Statt die korrekte Zahl von 190 Kiwis anzugeben, kommt das Modell auf 185. Es subtrahiert fälschlicherweise die kleineren Kiwis, obwohl dies nicht Teil der Fragestellung war. Dieser Fehler zeigt, dass sich das Modell durch irrelevante Informationen verwirren lässt.
Die Studie macht deutlich, dass KI-Modelle besser darin sind, Muster zu erkennen oder Vergleiche anzustellen. Sie haben jedoch große Probleme, logische Schlussfolgerungen zu ziehen. Vor allem, wenn Aufgaben mit unnötigen Details versehen sind, fällt es den Modellen schwer, korrekt zu reagieren. Diese Schwäche begrenzt die Fähigkeit der KI, in realen Anwendungsszenarien präzise zu agieren. Dabei bleibt das Erkennen von logischen Zusammenhängen für die Entwickler:innen eine große Herausforderung.
Die Forscher:innen betonen, dass die getesteten LLMs zwar in der Lage sind, Datenmuster zu identifizieren, ihre Fähigkeit, logische Schlüsse zu ziehen, jedoch mangelhaft bleibt. Dies zeigt, dass eine reine Analyse von Daten oft nicht ausreicht, um sinnvolle Lösungen zu finden. Gerade bei Aufgaben, die komplexes Denken erfordern, müssen die Modelle in der Lage sein, irrelevante Informationen zu ignorieren und logische Zusammenhänge korrekt zu erkennen.
Die Studie macht klar, dass es noch viel zu tun gibt, bevor KI-Modelle komplexe Denkaufgaben zuverlässig lösen können. Apple und andere Entwickler:innen müssen die Schwächen der aktuellen LLMs weiter angehen, um die nächste Stufe der künstlichen Intelligenz zu erreichen. Besonders für Anwendungen, bei denen logische Schlüsse entscheidend sind, bleibt die Verbesserung dieser Technologie ein zentrales Ziel.
Via Arxiv
Apple hat ungewöhnlicherweise am Freitagabend iOS 18.4 Beta 1, macOS 15.4 und weitere veröffentlicht. Die Betas enthalten das erste mal…
Das kürzlich veröffentlichte iPhone 16e hat einige beeindruckende Neuerungen zu bieten – nicht zuletzt das selbst entwickelte C1-Modem für 5G. Allerdings sorgte das Fehlen von…
Apple bringt mit einem kommenden Update die Visual Intelligence-Funktion – bisher exklusiv für die iPhone 16-Serie – nun auch auf das ältere iPhone 15…
Apple hat die Funktion Advanced Data Protection (ADP), die eine Ende-zu-Ende-Verschlüsselung für iCloud-Daten bietet, für neue Nutzer:innen in Großbritannien deaktiviert.…
Mit der Vorstellung des neuen iPhone 16e markiert Apple einen Meilenstein in der Unternehmensgeschichte: Das erste selbstentwickelte 5G-Modem mit der Bezeichnung C1 debütiert. (mehr …)
Apple konkretisiert den Startzeitraum für das nächste große Update seiner Betriebssysteme. Laut aktuellen Informationen soll iOS 18.4, gemeinsam mit iPadOS 18.4 und macOS Sequoia…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen