Produktneuheiten

Neue agentenbasierte Funktionen für Android Studio, neue KI-APIs, das erste Android XR-Gerät und mehr in der Herbstfolge von „The Android Show“

Lesezeit: 5 Minuten
Matthew McCullough
Vice President, Product Management, Android Developer

Wir befinden uns in einer wichtigen Phase, in der KI alles verändert – von unserer Arbeitsweise bis hin zu den Erwartungen, die Nutzer an Ihre Apps haben. Unser Ziel bei Android ist es, diese Entwicklung im Bereich der KI in Chancen für Sie und Ihre Nutzer zu verwandeln. In der heutigen Herbstfolge von „The Android Show“ haben wir eine Reihe neuer Updates vorgestellt, mit denen Sie den höchstmöglichen ROI bei der Entwicklung für die Android-Plattform erzielen können. Von neuen agentenbasierten Funktionen für Gemini in Android Studio über eine brandneue On-Device-KI-API bis hin zum ersten Android XR-Gerät gibt es viel zu berichten. Los gehts!

Mit der neuen Prompt API eigene benutzerdefinierte Funktionen für generative KI erstellen

Auf Android bieten wir KI-Modelle auf dem Gerät oder in der Cloud an.Ab sofort haben Sie die volle Flexibilität, die Ausgabe des Gemini Nano-Modells zu gestalten. Dazu können Sie jeden beliebigen Prompt eingeben mit der neuen Prompt API, die sich derzeit in der Alphaphase befindet. Mit Gemini Nano können Sie für Android-Flaggschiffgeräte effiziente On-Device-Optionen erstellen, bei denen die Daten der Nutzer das Gerät nie verlassen. Auf der I/O im Mai haben wir unsere On-Device-APIs für generative KI mit dem Gemini Nano-Modell eingeführt. Damit werden häufige Aufgaben durch einfache APIs für Aufgaben wie Zusammenfassung, Korrekturlesen und Bildbeschreibung erleichtert.Kakao hat die Prompt API verwendet, um den Paketlieferdienst zu transformieren. Ein langsamer, manueller Prozess, bei dem Nutzer Details kopieren und in ein Formular einfügen mussten, wurde durch eine einfache Nachricht ersetzt, in der eine Lieferung angefordert wird. Die API extrahiert automatisch alle erforderlichen Informationen. Durch diese einzelne Funktion konnte die Zeit für die Auftragsabwicklung um 24% verkürzt und die Conversion-Rate neuer Nutzer um unglaubliche 45 % gesteigert werden.

Mit dem Firebase SDK auf Nano Banana und Imagen zugreifen

Wenn Sie die neuesten Funktionen für alle Android-Geräte hinzufügen möchten, sind unsere cloudbasierten KI-Lösungen mit Firebase AI Logic eine gute Wahl. Modelle wie Gemini 2.5 Flash Image (auch bekannt als Nano Banana) und Imagen haben für viel Begeisterung gesorgt. Nutzer können jetzt mit Nano Banana Bilder generieren und bearbeiten. Für eine genauere Steuerung, z. B. zum Auswählen und Transformieren bestimmter Teile eines Bildes, können Nutzer die neue maskenbasierte Bearbeitungsfunktion verwenden, die das Imagen-Modell nutzt. Weitere Informationen finden Sie in unserem Blogpost. Neben der Bildgenerierung können Sie auch die multimodalen Funktionen von Gemini verwenden, um Text-, Audio- und Bildeingaben zu verarbeiten.RedBus hat beispielsweise die Nutzerrezensionen mit Gemini Flash über Firebase AI Logic revolutioniert, um das Feedback einfacher, inklusiver und zuverlässiger zu gestalten. Das alte Problem? Kurze, qualitativ minderwertige Textrezensionen. Die neue Lösung? Nutzer können jetzt Rezensionen per Spracheingabe in ihrer Muttersprache hinterlassen. Aus der Audioeingabe generiert Gemini Flash dann eine strukturierte Textantwort, die längere, detailliertere und zuverlässigere Nutzerrezensionen ermöglicht. Das ist ein Gewinn für alle: Reisende, Betreiber und Entwickler.

Mit agentenbasierten Funktionen in Android Studio produktiver werden

Unser Ziel mit Gemini in Android Studio ist es, Ihnen zu helfen, produktiver zu werden. Deshalb setzen wir KI in unseren Tools ein. Entwickler wie Pocket FM konnten die Entwicklungszeit um beeindruckende 50 % verkürzen. Mit der kürzlich eingeführten Funktion „Agentenmodus“ können Sie ein komplexes Ziel in natürlicher Sprache beschreiben. Mit Ihrer Erlaubnis plant und führt der Agent Änderungen an mehreren Dateien in Ihrem Projekt aus. Die Antworten des Agenten basieren jetzt auf den modernsten Entwicklungspraktiken und können sogar in Echtzeit auf unsere neueste Dokumentation verweisen. Wir haben neue agentenbasierte Funktionen wie Updates für den Agentenmodus, die Möglichkeit, APIs in Ihrem Namen zu aktualisieren, den neuen Projektassistenten und die Möglichkeit vorgestellt, jedes beliebige LLM Ihrer Wahl zu verwenden, um die KI-Funktionen in Android Studio zu nutzen. So haben Sie mehr Flexibilität und Auswahl bei der Einbindung von KI in Ihren Workflow. Die neuesten stabilen Funktionen wie „Sichern und synchronisieren“ finden Sie in der aktuellen stabilen Version von Android Studio.

KI-gestützte Android-Entwicklung verbessern und LLMs mit einem Android-Benchmark optimieren

Unser Ziel ist es, Android-Entwicklern die Erstellung großartiger Erlebnisse zu erleichtern. Da immer mehr Code von KI geschrieben wird, haben Entwickler nach Modellen gefragt, die mehr über die Android-Entwicklung wissen. Wir möchten Entwicklern helfen, produktiver zu werden. Deshalb entwickeln wir eine neue Aufgabenreihe für LLMs in verschiedenen gängigen Bereichen der Android-Entwicklung. Ziel ist es, LLM-Entwicklern einen Benchmark zu bieten, einen Leitfaden für hochwertige Android-Entwicklung, damit Android-Entwickler eine Reihe hilfreicher Modelle für die KI-Unterstützung zur Auswahl haben. 

Um die Herausforderungen der Android-Entwicklung widerzuspiegeln, besteht der Benchmark aus realen Problemen aus öffentlichen GitHub-Android-Repositories. Bei jeder Bewertung wird versucht, mit einem LLM eine Pull-Anfrage zu erstellen, die dann mit von Menschen erstellten Tests überprüft wird. So können wir die Fähigkeit eines Modells messen, sich in komplexen Codebasen zurechtzufinden, Abhängigkeiten zu verstehen und die Art von Problemen zu lösen, die Ihnen täglich begegnen. 

Wir arbeiten an der Fertigstellung der Aufgabenreihe, mit der wir LLMs testen werden, und werden die Ergebnisse in den kommenden Monaten öffentlich bekannt geben. Wir sind gespannt, wie sich dies auf die KI-gestützte Android-Entwicklung auswirkt und welche zusätzliche Flexibilität und Auswahl Sie bei der Entwicklung für Android haben.

benchmark.gif

Das erste Android XR-Gerät: Samsung Galaxy XR

Letzte Woche wurde das erste Gerät einer neuen Welle von Android XR-Geräten vorgestellt: das Galaxy XR in Zusammenarbeit mit Samsung.Android XR-Geräte werden vollständig in der Gemini-Ära entwickelt und bieten eine wichtige neue Plattformmöglichkeit für Ihre App. Da Android XR auf bekannten Android-Frameworks basiert, entwickeln Sie bereits für XR, wenn Sie adaptiv entwickeln. Um das volle Potenzial der Android XR-Funktionen zu nutzen, können Sie das Jetpack XR SDK verwenden. Das Team von Calm bietet ein perfektes Beispiel dafür. Sie haben ihre mobile App erfolgreich in ein immersives räumliches Erlebnis verwandelt. Am ersten Tag haben sie ihre ersten funktionalen XR-Menüs und in nur zwei Wochen ein grundlegendes XR-Erlebnis entwickelt, indem sie ihre vorhandene Android-Codebasis und das Jetpack XR SDK genutzt haben.Weitere Informationen zu Android XR finden Sie in unserer Spotlight Week von letzter Woche. 

Jetpack Navigation 3 befindet sich in der Betaphase

Die neue Jetpack Navigation 3-Bibliothek befindet sich jetzt in der Betaphase. Anstatt das Verhalten in die Bibliothek selbst einzubetten, bieten wir Anleitungen mit guten Standardeinstellungen (Nav3-Rezepte auf GitHub). Sie ist sofort einsatzbereit, vollständig anpassbar, unterstützt Animationen und ist adaptiv. Nav 3 wurde von Grund auf mit Compose State als grundlegendem Baustein entwickelt. Das bedeutet, dass es vollständig in das deklarative Programmiermodell integriert ist. Sie ändern den Status, den Sie besitzen, und Nav3 reagiert auf diesen neuen Status. Im Bereich von Compose haben wir daran gearbeitet, die Entwicklung von Benutzeroberflächen zu beschleunigen und zu vereinfachen. Dabei haben wir die Funktionen berücksichtigt, die Sie uns für Views genannt haben, und gleichzeitig dafür gesorgt, dass Compose leistungsstark ist.

Geschäftserfolg bei Google Play steigern

Da KI die App-Entwicklung beschleunigt, optimiert Google Play Ihren Workflow in der Play Console, damit Ihr Geschäftswachstum mit Ihrem Code mithalten kann. Das neu gestaltete, zielorientierte App-Dashboard stellt umsetzbare Messwerte in den Vordergrund. Außerdem machen neue Funktionen Ihre täglichen Abläufe schneller, intelligenter und effizienter: von Tests vor der Veröffentlichung mit Deep-Link-Validierung bis hin zu KI-gestützten Analysenzusammenfassungen und der Lokalisierung von App-Strings. Diese Updates sind erst der Anfang. In der vollständigen Liste der Ankündigungen finden Sie die neuesten Informationen zu Google Play.  

Herbstfolge von „The Android Show“ ansehen

Vielen Dank, dass Sie sich die Herbstfolge von „The Android Show“ angesehen haben. Wir freuen uns darauf, weiterhin gemeinsam großartige Dinge zu entwickeln. Diese Sendung ist ein wichtiger Teil unserer Kommunikation mit Ihnen. Wir freuen uns auf Ihre Ideen für unsere nächste Folge. Kontaktieren Sie uns dazu auf X oder LinkedIn. Ein besonderer Dank gilt meinen Co-Hosts Rebecca Gutteridge und Adetunji Dahunsi, die uns geholfen haben, die neuesten Updates zu präsentieren.

Verfasst von:

Weiterlesen