Apple sich für die Verwendung von Google entwickelten Tensor Processing Units (TPUs) entschieden, um wichtige Komponenten seiner Apple Intelligence Plattform zu entwickeln. Das legt zumindest ein neuer Bericht nahe. Dies stellt einen signifikanten Schritt in der Auswahl der KI-Hardware dar, weg von den üblicherweise genutzten Nvidia GPUs.
Laut einem neuen Forschungspapier von Apple, welches die Abhängigkeit von Googles Cloud-Hardware hervorhebt, hat Apple 2.048 TPUv5p-Chips und 8.192 TPUv4-Prozessoren für die Entwicklung seiner Server-KI-Modelle eingesetzt. Diese Entscheidung markiert einen wichtigen Punkt, da Apple traditionell selten Details über seine Hardware-Auswahl preisgibt, insbesondere in einem Markt, der von Nvidia’s leistungsstarken GPUs dominiert wird.
Vorteile von Googles TPUs
Google bietet seine TPUs ausschließlich über Cloud-Dienste an, was Kunden zwingt, ihre Software innerhalb des Google-Ökosystems zu entwickeln. Dies bietet integrierte Tools und Dienste, die die Entwicklung und den Einsatz von KI-Modellen erleichtern. Apple-Ingenieure betonen, dass die Organisation der TPUs in großen Clustern die effiziente Schulung komplexer KI-Modelle ermöglicht.
Tensor und Investitionen in KI-Server
Apple plant, in den nächsten zwei Jahren über 5 Milliarden Dollar in die Verbesserung seiner KI-Server zu investieren, was die KI-Fähigkeiten des Unternehmens stärken und seine Abhängigkeit von externen Hardwareanbietern verringern soll.
Ethische Überlegungen und Datenschutz
Das Forschungspapier behandelt auch ethische Überlegungen der KI-Entwicklung. Apple betont, dass es keine privaten Nutzerdaten zum Trainieren seiner KI-Modelle verwendet. Stattdessen setzt Apple auf eine Mischung aus öffentlich zugänglichen, lizenzierten und quelloffenen Datensätzen.
Via MacRumors