Apple hat in einer neuen Studie untersucht, wie gut KI-Modelle logische Denkaufgaben bewältigen. Diese Forschung ist besonders wichtig, da Apple mit Apple Intelligence bald neue KI-Funktionen in iPhone, iPad und Mac einführt.Die Studie macht jedoch deutlich, dass aktuelle Large Language Models (LLMs), wie sie von OpenAI und Meta entwickelt werden, bei Aufgaben, die logisches Denken erfordern, Schwächen aufweisen.
Die Studie zeigt, dass viele KI-Modelle, darunter OpenAIs o1-mini und Metas Llama3-8b, Schwierigkeiten haben, wenn irrelevante Details in Aufgaben enthalten sind. Diese Modelle scheitern oft daran, sinnvolle Schlüsse zu ziehen. Ein Beispiel aus der Studie verdeutlicht dies:
„Oliver pflückt am Freitag 44 Kiwis. Am Samstag pflückt er 58 Kiwis. Am Sonntag pflückt er doppelt so viele Kiwis wie am Freitag, aber fünf davon sind etwas kleiner als der Durchschnitt. Wie viele Kiwis hat Oliver insgesamt?“
OpenAIs Modell o1-mini liefert in diesem Fall das falsche Ergebnis, weil es die Größe der fünf Kiwis falsch interpretiert. Statt die korrekte Zahl von 190 Kiwis anzugeben, kommt das Modell auf 185. Es subtrahiert fälschlicherweise die kleineren Kiwis, obwohl dies nicht Teil der Fragestellung war. Dieser Fehler zeigt, dass sich das Modell durch irrelevante Informationen verwirren lässt.
Die Studie macht deutlich, dass KI-Modelle besser darin sind, Muster zu erkennen oder Vergleiche anzustellen. Sie haben jedoch große Probleme, logische Schlussfolgerungen zu ziehen. Vor allem, wenn Aufgaben mit unnötigen Details versehen sind, fällt es den Modellen schwer, korrekt zu reagieren. Diese Schwäche begrenzt die Fähigkeit der KI, in realen Anwendungsszenarien präzise zu agieren. Dabei bleibt das Erkennen von logischen Zusammenhängen für die Entwickler:innen eine große Herausforderung.
Die Forscher:innen betonen, dass die getesteten LLMs zwar in der Lage sind, Datenmuster zu identifizieren, ihre Fähigkeit, logische Schlüsse zu ziehen, jedoch mangelhaft bleibt. Dies zeigt, dass eine reine Analyse von Daten oft nicht ausreicht, um sinnvolle Lösungen zu finden. Gerade bei Aufgaben, die komplexes Denken erfordern, müssen die Modelle in der Lage sein, irrelevante Informationen zu ignorieren und logische Zusammenhänge korrekt zu erkennen.
Die Studie macht klar, dass es noch viel zu tun gibt, bevor KI-Modelle komplexe Denkaufgaben zuverlässig lösen können. Apple und andere Entwickler:innen müssen die Schwächen der aktuellen LLMs weiter angehen, um die nächste Stufe der künstlichen Intelligenz zu erreichen. Besonders für Anwendungen, bei denen logische Schlüsse entscheidend sind, bleibt die Verbesserung dieser Technologie ein zentrales Ziel.
Via Arxiv
Apple hat watchOS 11.4 nun offiziell für alle Nutzer:innen der Apple Watch freigegeben. Das Update bringt zwar keine großen Systemänderungen,…
Google hat offiziell angekündigt, die Produktion seines smarten Rauchmelders Nest Protect einzustellen. (mehr …)
Apple hat seine neueste Version von watchOS, Version 11.4, nur wenige Stunden nach Veröffentlichung ohne Angabe von Gründen wieder zurückgezogen.…
Apple hat heute visionOS 2.4 veröffentlicht – ein umfassendes Update für die Apple Vision Pro, das erstmals Apple Intelligence Funktionen,…
Apple hat mit der Veröffentlichung von iOS 18.4, iPadOS 18.4, macOS Sequoia 15.4 und watchOS 11.4 ein umfangreiches Softwarepaket ausgeliefert.…
Apple wurde von der französischen Wettbewerbsbehörde wegen seiner App-Tracking-Transparenz (ATT) zu einer Geldstrafe von 162 Millionen Dollar verurteilt. (mehr …)
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen