Produktneuheiten

Gemma 4 in der AICore-Entwicklervorschau

3 Minuten Lesezeit

Wir bei Google möchten die leistungsstärksten KI-Modelle direkt auf Android-Geräten verfügbar machen. Heute freuen wir uns, die Veröffentlichung unseres neuesten hochmodernen Open-Source-Modells bekannt zu geben: Gemma 4.

Diese Modelle bilden die Grundlage für die nächste Generation von Gemini Nano. Code, den Sie heute für Gemma 4 schreiben, funktioniert also automatisch auf Geräten mit Gemini Nano 4, die später in diesem Jahr verfügbar sein werden. Mit Gemini Nano 4 profitieren Sie von unseren zusätzlichen Leistungsoptimierungen, sodass Sie mit der effizientesten On-Device-Inferenz im gesamten Android-Ökosystem in die Produktion gehen können.

Sie können heute über die AICore-Entwicklervorschau vorab auf dieses Modell zugreifen.

large_Inline-imagery.gif

Wählen Sie in der Benutzeroberfläche der Entwicklervorschau das schnelle Modell Gemini Nano 4 aus, um die rasante Inferenzgeschwindigkeit in Aktion zu sehen, bevor Sie Code schreiben.

Da Gemma 4 über 140 Sprachen nativ unterstützt, können Sie sich auf verbesserte lokalisierte, mehrsprachige Erlebnisse für Ihr globales Publikum freuen. Darüber hinaus bietet Gemma 4 eine branchenführende Leistung mit multimodalem Verständnis, sodass Ihre Apps Text, Bilder und Audio verstehen und verarbeiten können. Um Ihnen die beste Balance zwischen Leistung und Effizienz zu bieten, ist Gemma 4 unter Android in zwei Größen verfügbar:

  • E4B:Für höhere Reasoning-Leistung und komplexe Aufgaben entwickelt.
  • E2B:Für maximale Geschwindigkeit (dreimal schneller als das E4B-Modell!) und geringere Latenz optimiert.

Das neue Modell ist bis zu viermal schneller als frühere Versionen und verbraucht bis zu 60% weniger Akku. Ab heute können Sie mit verbesserten Funktionen experimentieren, darunter:

  • Reasoning:Bei Chain-of-Thought-Befehlen und bedingten Anweisungen sind jetzt Ergebnisse von höherer Qualität zu erwarten. Beispiel: „Prüfe, ob der folgende Kommentar für einen Diskussionsthread den Community-Richtlinien entspricht. Der Kommentar entspricht nicht den Community-Richtlinien, wenn er einen oder mehrere der folgenden Gründe für die Meldung enthält: profanity, derogatory language, hate speech. Wenn die Überprüfung den Community-Richtlinien entspricht, gib {true} zurück. Andernfalls gib {false, reason_for_flag} zurück.“
  • Mathematik:Dank besserer mathematischer Fähigkeiten kann das Modell Fragen jetzt genauer beantworten. Beispiel: „Wenn ich 26 Gehaltsabrechnungen pro Jahr erhalte, wie viel sollte ich pro Gehaltsabrechnung einzahlen,um mein Sparziel von 10.000 $im Laufe eines Jahres zu erreichen?“
  • Zeitverständnis:Das Modell ist jetzt besser im Umgang mit Zeit, was es für Anwendungsfälle mit Kalendern, Erinnerungen und Weckern genauer macht. Beispiel: „Die Veranstaltung findet am 18. August um 18:00 Uhr statt und 10 Stunden vorher soll eine Erinnerung gesendet werden. Gib die Uhrzeit und das Datum zurück, an dem die Erinnerung gesendet werden soll.“
  • Bildverständnis:Anwendungsfälle mit OCR (optische Zeichenerkennung) wie Diagrammverständnis, visuelle Datenextraktion und Handschrifterkennung liefern jetzt genauere Ergebnisse.

Nehmen Sie noch heute an der Entwicklervorschau teil, um diese Modelle in der Vorschau herunterzuladen und sofort mit der Entwicklung von Funktionen der nächsten Generation zu beginnen.

Modell testen

Sie können das Modell ohne Code ausprobieren. Folgen Sie dazu der Anleitung zur Entwicklervorschau. Wenn Sie diese Modelle direkt in Ihren bestehenden Workflow einbinden möchten, ist das ganz einfach. Gehen Sie zu Android Studio, um Ihren Prompt zu optimieren und mit der bekannten ML Kit Prompt API zu entwickeln. Wir haben eine neue Funktion eingeführt, mit der Sie ein Modell angeben können, sodass Sie die Varianten E2B (schnell) oder E4B (vollständig) für Tests verwenden können.

// Define the configuration with a specific track and preference
val previewFullConfig = generationConfig {
    modelConfig = ModelConfig {
        releaseTrack = ModelReleaseTrack.PREVIEW
        preference = ModelPreference.FULL
    }
}

// Initialize the GenerativeModel with the configuration
val previewModel = GenerativeModel.getClient(previewFullConfig)

// Verify that the specific preview model is available
val previewModelStatus = previewModel.checkStatus()
if (previewModelStatus == FeatureStatus.AVAILABLE) {
    // Proceed with inference
    val response = previewModel.generateContent("If I get 26 paychecks per year, how much I should contribute each paycheck to reach my savings goal of $10k over the course of a year? Return only the amount.")

} else {
    // Handle the case where the preview model is not available
    // (e.g., print out log statements)
}

Was Sie während der Entwicklervorschau erwartet

Ziel dieser Entwicklervorschau ist es, Ihnen einen Vorsprung bei der Optimierung der Prompt-Genauigkeit zu verschaffen und neue Anwendungsfälle für Ihre spezifischen Apps zu erkunden.

Während des Vorschauzeitraums werden mehrere Updates vorgenommen, darunter Unterstützung für Tool-Aufrufe, strukturierte Ausgaben, System-Prompts und den Denkmodus in der Prompt API. So können Sie die neuen Funktionen in Gemma 4 sowie die erheblichen Leistungsoptimierungen optimal nutzen.

Die Vorschau-Modelle sind für Tests auf AICore-fähigen Geräten verfügbar. Diese Modelle werden auf der neuesten Generation von spezialisierten KI-Beschleunigern von Google, MediaTek und Qualcomm Technologies ausgeführt. Auf anderen Geräten werden die Modelle zunächst auf einer CPU-Implementierung ausgeführt, die nicht repräsentativ für die endgültige Produktionsleistung ist. Wenn Ihr Gerät nicht AICore-fähig ist, können Sie diese Modelle auch über die App AI Edge Gallery testen. Wir werden in Zukunft Unterstützung für weitere Geräte anbieten.

Erste Schritte

Möchten Sie sehen, was Gemma 4 für Ihre Nutzer tun kann?

  1. Aktivieren: Registrieren Sie sich für die AICore-Entwicklervorschau.
  2. Herunterladen:Nach der Aktivierung können Sie den Download der neuesten Gemma 4-Modelle direkt auf Ihr unterstütztes Testgerät auslösen.
  3. Entwickeln:Aktualisieren Sie Ihre ML Kit-Implementierung, um die neuen Modelle zu verwenden, und beginnen Sie mit der Entwicklung in Android Studio.
Verfasst von:

Weiterlesen