Google hat die nächste Generation seines großen Sprachmodells, Gemini 1.5, vorgestellt, das einen deutlichen Fortschritt in der Leistungsfähigkeit und Effizienz gegenüber seinem Vorgänger, Gemini 1.0, verspricht. Diese Ankündigung erfolgt kurz nach der Vorstellung einer Vielzahl von Neuerungen um das Gemini-Modell, was die rasante Entwicklung im Bereich der künstlichen Intelligenz (KI) bei Google unterstreicht.
Performance und Effizienz
Gemini 1.5 zeichnet sich durch eine signifikante Steigerung der Performance aus, die sowohl den Betrieb als auch das Training des Modells effizienter gestaltet. Google hebt hervor, dass das mittelgroße Modell Gemini Pro 1.5 in seiner Leistungsfähigkeit auf dem Niveau des größeren Modells Gemini Ultra 1.0 liegt, jedoch mit einer verbesserten Performance aufwartet. Ein Schlüsselfaktor für diesen Fortschritt ist die „Mixture of Experts“-Architektur, die das Modell in spezialisierte Bereiche aufteilt und so die Effizienz erheblich steigert.
Längeres Kontextverständnis
Ein weiterer bedeutender Vorteil von Gemini 1.5 ist das erweiterte Verständnis des Kontextes einer Diskussion. Während bisherige Modelle auf 32.000 Tokens beschränkt waren, kann Gemini 1.5 bis zu einer Million Tokens verarbeiten. Dies ermöglicht es dem Modell, wesentlich größere Datenmengen in einem Durchgang zu bearbeiten und komplexere Zusammenhänge über verschiedene Modalitäten hinweg zu erfassen. In der Praxis bedeutet dies die Fähigkeit, bis zu einer Stunde Video, 30.000 Zeilen Code oder Texte mit 700.000 Wörtern zu verarbeiten.
Zugänglichkeit und Entwicklerunterstützung
Gemini 1.0 Pro ist nun für alle Kunden von Vertex AI in der Google Cloud verfügbar, während für die Nutzung von Gemini Ultra 1.0 eine Anmeldung erforderlich bleibt. Gemini 1.5 Pro befindet sich in einer privaten Testphase mit ausgewählten Partnern. Zusätzlich kündigt Google das „Google AI Dart SDK for the Gemini API“ an, eine Entwicklerschnittstelle, die das Anbinden von in Flutter oder Dart geschriebenen Apps an Gemini erleichtert. Dies soll die Entwicklung von Programmen für eine Vielzahl von Plattformen vereinfachen.
Via Anbieter