Apple hat zwei neue, leistungsstarke Sprachmodelle veröffentlicht. Diese Modelle sollen Entwickler:innen und Unternehmen weltweit zugutekommen und zeigen, wie Apple kompakte, aber dennoch leistungsstarke KI-Frameworks entwickelt.
Das Machine Learning-Team von Apple beteiligt sich aktiv am Open-Source-Projekt DataComp für Sprachmodelle und arbeitet dabei mit anderen Branchenführern zusammen. Die beiden neuen Modelle, die von Apple entwickelt wurden, zeigen bemerkenswerte Leistungen und übertreffen sogar führende Modelle wie Llama 3 und Gemma. Solche Sprachmodelle sind entscheidend für das Training von KI-Engines wie ChatGPT und bieten ein robustes Framework, das Architektur, Parameter und Datensatzfilterung umfasst, um die Datenqualität zu verbessern.
Apple hat im Rahmen des DataComp-Projekts ein größeres Modell mit sieben Milliarden Parametern und ein kleineres Modell mit 1,4 Milliarden Parametern eingereicht. Das größere Modell hat das bisher führende Modell MAP-Neo um 6,6 % in Benchmark-Tests übertroffen. Was Apples Modelle besonders auszeichnet, ist ihre Effizienz: Das DataComp-LM-Modell verwendet 40 % weniger Rechenleistung bei gleichzeitiger Erreichung dieser beeindruckenden Benchmarks. Dieses Modell hat sich auch als das leistungsstärkste unter den Modellen mit offenen Datensätzen erwiesen und konnte sogar mit Modellen, die private Datensätze verwenden, konkurrieren.
Apple hat seine Modelle vollständig als Open-Source veröffentlicht und stellt den Datensatz, die Gewichtsmodelle und den Trainingscode anderen Forschern zur Verfügung. Sowohl das größere als auch das kleinere Modell haben in den Massive Multi-task Language Understanding Benchmarks (MMLU) gut abgeschnitten und konnten mit kommerziellen Modellen konkurrieren.
Auf der WWDC-Konferenz im Juni hat Apple sowohl Apple Intelligence als auch Private Cloud Compute vorgestellt und damit Kritiker:innen zum Schweigen gebracht, die behaupteten, Apple sei in Bezug auf künstliche Intelligenz-Anwendungen hinter der Branche zurückgeblieben. Forschungspapiere des Machine Learning-Teams, die vor und nach diesem Ereignis veröffentlicht wurden, beweisen, dass das Unternehmen tatsächlich ein führender Akteur in der KI-Branche ist.
Diese Modelle sind nicht für den Einsatz in zukünftigen Apple-Produkten gedacht, sondern sollen als Forschungsprojekte der Gemeinschaft zeigen, wie effektiv kleine oder große Datensätze für das Training von KI-Modellen kuratiert werden können. Apples Machine Learning-Team hat zuvor Forschungsergebnisse mit der größeren KI-Gemeinschaft geteilt. Die Datensätze, Forschungsnotizen und anderen Ressourcen sind alle auf HuggingFace.co zu finden, einer Plattform, die sich der Erweiterung der KI-Gemeinschaft widmet.
Quelle: Appleinsider
Titelbild: Huggingface
Apple startet sein Shopping-Event am 29. November. Kauft man ein qualifiziertes Produkt erhält man vom Konzern bis zu 200 Euro…
Die indonesische Regierung wird am Donnerstag über ein 100-Millionen-Dollar-Investitionsangebot von Apple beraten. Dieses Angebot ist Teil des Versuchs, das Verkaufsverbot…
Die dritte Public Beta von iOS 18.2 ist jetzt verfügbar und bringt kleinere Verbesserungen, Bugfixes und Performance-Optimierungen. Mit der Veröffentlichung…
Im Mai 2023 führte Apple mit den sogenannten "Schnellen Sicherheitsmaßnahmen" (englisch: Rapid Security Responses) eine neue Methode ein, um Sicherheitslücken…
Shazam, die beliebte Musikerkennungs-App von Apple, hat einen beeindruckenden Rekord erreicht: Über 100 Milliarden Songs wurden seit der Einführung des…
Apple steht vor einer entscheidenden Anhörung, bei der das Unternehmen versuchen wird, einen US-Monopolprozess gegen sich abzuwehren. Der Fall, eingereicht…
Diese Website benutzt Cookies um Ihr Nutzererlebnis zu verbessern. Wenn Sie diese Website weiter nutzen, gehen wir von Ihrem Einverständnis aus.
Mehr lesen