Apple hat in einer neuen Studie untersucht, wie gut KI-Modelle logische Denkaufgaben bewältigen. Diese Forschung ist besonders wichtig, da Apple mit Apple Intelligence bald neue KI-Funktionen in iPhone, iPad und Mac einführt.Die Studie macht jedoch deutlich, dass aktuelle Large Language Models (LLMs), wie sie von OpenAI und Meta entwickelt werden, bei Aufgaben, die logisches Denken erfordern, Schwächen aufweisen.
Die Studie zeigt, dass viele KI-Modelle, darunter OpenAIs o1-mini und Metas Llama3-8b, Schwierigkeiten haben, wenn irrelevante Details in Aufgaben enthalten sind. Diese Modelle scheitern oft daran, sinnvolle Schlüsse zu ziehen. Ein Beispiel aus der Studie verdeutlicht dies:
„Oliver pflückt am Freitag 44 Kiwis. Am Samstag pflückt er 58 Kiwis. Am Sonntag pflückt er doppelt so viele Kiwis wie am Freitag, aber fünf davon sind etwas kleiner als der Durchschnitt. Wie viele Kiwis hat Oliver insgesamt?“
OpenAIs Modell o1-mini liefert in diesem Fall das falsche Ergebnis, weil es die Größe der fünf Kiwis falsch interpretiert. Statt die korrekte Zahl von 190 Kiwis anzugeben, kommt das Modell auf 185. Es subtrahiert fälschlicherweise die kleineren Kiwis, obwohl dies nicht Teil der Fragestellung war. Dieser Fehler zeigt, dass sich das Modell durch irrelevante Informationen verwirren lässt.
Die Studie macht deutlich, dass KI-Modelle besser darin sind, Muster zu erkennen oder Vergleiche anzustellen. Sie haben jedoch große Probleme, logische Schlussfolgerungen zu ziehen. Vor allem, wenn Aufgaben mit unnötigen Details versehen sind, fällt es den Modellen schwer, korrekt zu reagieren. Diese Schwäche begrenzt die Fähigkeit der KI, in realen Anwendungsszenarien präzise zu agieren. Dabei bleibt das Erkennen von logischen Zusammenhängen für die Entwickler:innen eine große Herausforderung.
Die Forscher:innen betonen, dass die getesteten LLMs zwar in der Lage sind, Datenmuster zu identifizieren, ihre Fähigkeit, logische Schlüsse zu ziehen, jedoch mangelhaft bleibt. Dies zeigt, dass eine reine Analyse von Daten oft nicht ausreicht, um sinnvolle Lösungen zu finden. Gerade bei Aufgaben, die komplexes Denken erfordern, müssen die Modelle in der Lage sein, irrelevante Informationen zu ignorieren und logische Zusammenhänge korrekt zu erkennen.
Die Studie macht klar, dass es noch viel zu tun gibt, bevor KI-Modelle komplexe Denkaufgaben zuverlässig lösen können. Apple und andere Entwickler:innen müssen die Schwächen der aktuellen LLMs weiter angehen, um die nächste Stufe der künstlichen Intelligenz zu erreichen. Besonders für Anwendungen, bei denen logische Schlüsse entscheidend sind, bleibt die Verbesserung dieser Technologie ein zentrales Ziel.
Via Arxiv
Die neuen M4 MacBook Pro-Modelle von Apple setzen auf Quantum Dot-Displaytechnologie und bieten dadurch eine lebendigere und präzisere Farbdarstellung. Laut…
Apple hat kürzlich ein großes Update für Final Cut Pro veröffentlicht, das neue KI-basierte Funktionen wie „Transcribe to Captions“ beinhaltet.…
Spotify hat heute die Geschäftszahlen für das dritte Quartal 2024 veröffentlicht, das die Monate Juli, August und September umfasst. (mehr …)
Der Stromanbieter Tibber hat Anfang der Woche einen Hackerangriff auf seinen deutschen Webshop erlitten. Das norwegische Unternehmen informiert seine Kund:innen derzeit per E-Mail über…
Blizzard hat mit der Warcraft Remastered Battle Chest eine Sammlung für Fans der ersten Stunde veröffentlicht. Diese umfasst Remaster-Versionen von Warcraft I und Warcraft II sowie…
Nach anderthalb Jahren Pause kehrt die erfolgreiche Science-Fiction-Serie Silo auf Apple TV+ zurück. Die erste Episode der zweiten Staffel ist…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen