Wiadomości o usługach
Nowe funkcje oparte na agentach w Android Studio, nowe interfejsy AI API, pierwsze urządzenie z Androidem XR i inne nowości w jesiennym odcinku The Android Show
Czas czytania: 5 minut
Żyjemy w ważnym momencie, w którym AI zmienia wszystko – od sposobu pracy po oczekiwania użytkowników wobec Twoich aplikacji. Naszym celem w Androidzie jest przekształcenie tej ewolucji AI w możliwości dla Ciebie i Twoich użytkowników. W jesiennym odcinku The Android Show przedstawiliśmy wiele nowych aktualizacji, które pomogą Ci uzyskać jak największy zwrot z inwestycji w tworzenie aplikacji na platformę Android. Od nowych funkcji opartych na agentach w Gemini w Android Studio po zupełnie nowy interfejs API AI na urządzeniu i pierwsze urządzenie z Androidem XR – jest o czym mówić. Zacznijmy!
Tworzenie własnych funkcji generatywnej AI za pomocą nowego interfejsu Prompt API
Na Androidzie oferujemy modele AI na urządzeniu lub w chmurze. Dziś z przyjemnością informujemy, że dzięki nowemu interfejsowi Prompt API w wersji alfa możesz w pełni elastycznie kształtować dane wyjściowe modelu Gemini Nano,przekazując dowolny prompt. W przypadku flagowych urządzeń z Androidem Gemini Nano umożliwia tworzenie wydajnych opcji na urządzeniu, w których dane użytkowników nigdy nie opuszczają urządzenia. Podczas konferencji I/O w maju tego roku udostępniliśmy interfejsy GenAI API na urządzeniu z modelem Gemini Nano, które ułatwiają wykonywanie typowych zadań dzięki prostym interfejsom API do podsumowywania, korekty i opisywania obrazów. Firma Kakao użyła interfejsu Prompt API, aby przekształcić swoją usługę dostarczania paczek. Zastąpiła powolny, ręczny proces, w którym użytkownicy musieli kopiować i wklejać szczegóły do formularza, prostą wiadomością z prośbą o dostawę. Interfejs API automatycznie wyodrębnia wszystkie niezbędne informacje. Ta jedna funkcja skróciła czas realizacji zamówienia o 24% i zwiększyła konwersję nowych użytkowników o aż 45%.
Korzystanie z Nano Banana i Imagen za pomocą pakietu Firebase SDK
Jeśli chcesz dodać najnowocześniejsze funkcje na wszystkich urządzeniach z Androidem, nasze oparte na chmurze rozwiązania AI z Firebase AI Logic będą idealne. Modele takie jak Gemini 2.5 Flash Image (znany też jako Nano Banana) i Imagen cieszą się ogromnym zainteresowaniem. Użytkownicy mogą teraz generować i edytować obrazy za pomocą Nano Banana, a następnie, aby uzyskać większą kontrolę, np. wybierać i przekształcać określone części obrazu, mogą korzystać z nowej funkcji edycji opartej na maskach, która wykorzystuje model Imagen. Więcej informacji znajdziesz w naszym poście na blogu. Oprócz generowania obrazów możesz też korzystać z multimodalnego Gemini do przetwarzania tekstu, dźwięku i obrazów. Firma RedBus zrewolucjonizowała na przykład opinie użytkowników, korzystając z Gemini Flash za pomocą Firebase AI Logic, aby ułatwić, zwiększyć dostępność i niezawodność przekazywania opinii. Stary problem? krótkie opinie tekstowe o niskiej jakości; Nowe rozwiązanie? Użytkownicy mogą teraz zostawiać opinie za pomocą głosowego wprowadzania tekstu w swoich językach ojczystych. Na podstawie nagrania audio Gemini Flash generuje ustrukturyzowaną odpowiedź tekstową, która umożliwia tworzenie dłuższych, bardziej szczegółowych i wiarygodnych opinii użytkowników. To świetne rozwiązanie dla wszystkich: podróżnych, operatorów i deweloperów.
Zwiększanie produktywności dzięki usługom agentowym w Android Studio
Naszym celem jest zwiększenie Twojej produktywności dzięki Gemini w Android Studio, dlatego wprowadzamy AI w naszych narzędziach. Deweloperzy, np. Pocket FM, odnotowali imponujące oszczędności czasu programowania na poziomie 50%. Dzięki niedawno wprowadzonemu trybowi agenta możesz opisać złożony cel w języku naturalnym, a agent (za Twoją zgodą) zaplanuje i wprowadzi zmiany w wielu plikach w projekcie. Odpowiedzi agenta są teraz oparte na najnowszych praktykach programistycznych i mogą nawet w czasie rzeczywistym odwoływać się do naszej najnowszej dokumentacji. Zaprezentowaliśmy nowe funkcje oparte na agentach, takie jak aktualizacje trybu agenta, możliwość uaktualniania interfejsów API w Twoim imieniu, nowy asystent projektu. Ogłosiliśmy też, że będziesz mieć możliwość korzystania z dowolnego LLM, aby zasilać funkcje AI w Android Studio. Zapewni Ci to większą elastyczność i możliwość wyboru sposobu włączania AI do swojego procesu pracy. Aby korzystać z najnowszych stabilnych funkcji, takich jak Kopia zapasowa i synchronizacja, pobierz najnowszą stabilną wersję Androida Studio.
Ulepszanie programowania aplikacji na Androida wspomaganego przez AI i poprawianie modeli LLM za pomocą testu porównawczego Androida
Naszym celem jest ułatwienie programistom na Androida tworzenia wspaniałych aplikacji. Więcej kodu jest pisane przez AI, więc deweloperzy proszą o modele, które mają większą wiedzę o tworzeniu aplikacji na Androida. Chcemy pomagać deweloperom w zwiększaniu produktywności, dlatego tworzymy nowy zestaw zadań dla dużych modeli językowych w zakresie typowych obszarów tworzenia aplikacji na Androida. Chcemy zapewnić twórcom LLM punkt odniesienia, wzorzec wysokiej jakości tworzenia aplikacji na Androida, aby programiści mogli wybierać spośród wielu przydatnych modeli do pomocy AI.
Aby odzwierciedlić wyzwania związane z programowaniem na Androida, test składa się z rzeczywistych problemów pochodzących z publicznych repozytoriów Androida na GitHubie. Podczas każdej oceny model LLM próbuje odtworzyć żądanie pull, które jest następnie weryfikowane za pomocą testów napisanych przez człowieka. Dzięki temu możemy mierzyć zdolność modelu do poruszania się po złożonych bazach kodu, rozumienia zależności i rozwiązywania problemów, z którymi stykasz się na co dzień.
Kończymy przygotowywanie zestawu zadań, które będziemy testować na LLM-ach. Wyniki udostępnimy publicznie w najbliższych miesiącach. Nie możemy się doczekać, aby zobaczyć, jak wpłynie to na rozwój Androida z pomocą AI oraz jaką dodatkową elastyczność i możliwości wyboru zapewni Ci to podczas tworzenia aplikacji na Androida.
Pierwsze urządzenie z Androidem XR: Samsung Galaxy XR
W zeszłym tygodniu wprowadziliśmy na rynek pierwsze urządzenie z Androidem XR z nowej serii: Galaxy XR, we współpracy z firmą Samsung. Urządzenia z Androidem XR są w całości oparte na Gemini, co stwarza nowe możliwości dla Twojej aplikacji. A ponieważ Android XR jest oparty na znanych frameworkach Androida, tworząc adaptacyjnie, tworzysz już aplikację na XR. Aby w pełni wykorzystać potencjał funkcji Androida XR, możesz użyć pakietu Jetpack XR SDK. Zespół Calm podaje doskonały przykład takiego działania. Udało im się przekształcić aplikację mobilną w przestrzenne środowisko immersyjne. Pierwsze funkcjonalne menu XR stworzyli w ciągu jednego dnia, a podstawowe środowisko XR – w zaledwie 2 tygodnie, wykorzystując istniejącą bazę kodu Androida i pakiet SDK Jetpack XR.Więcej informacji o Androidzie XR znajdziesz w naszym artykule z ubiegłego tygodnia.
Jetpack Navigation 3 w wersji beta
Nowa biblioteka Jetpack Navigation 3 jest już dostępna w wersji beta. Zamiast osadzać zachowanie w samej bibliotece, udostępniamy „przepisy” z dobrymi ustawieniami domyślnymi (przepisy nav3 w GitHubie). Jest w pełni konfigurowalny, obsługuje animacje i jest adaptacyjny. Biblioteka Nav 3 została zbudowana od podstaw z użyciem stanu Compose jako podstawowego elementu składowego. Oznacza to, że w pełni wykorzystuje deklaratywny model programowania – zmieniasz stan, którego jesteś właścicielem, a Nav3 reaguje na ten nowy stan. W przypadku Compose pracowaliśmy nad tym, aby tworzenie interfejsu było szybsze i łatwiejsze. Wprowadziliśmy funkcje, o które prosiliście w przypadku widoków, a jednocześnie zadbaliśmy o wydajność Compose.
Szybszy rozwój firmy w Google Play
Sztuczna inteligencja przyspiesza tworzenie aplikacji, a Google Play usprawnia przepływ pracy w Konsoli Play, aby rozwój Twojej firmy nadążał za Twoim kodem. Przeprojektowany panel aplikacji zorientowany na cele umieszcza w eksponowanym miejscu dane, które można wykorzystać w praktyce. Nowe funkcje sprawiają, że codzienne działania operacyjne są szybsze, inteligentniejsze i wydajniejsze: od testów przedpremierowych z walidacją precyzyjnych linków po podsumowania analityczne oparte na AI i lokalizację ciągów tekstowych w aplikacji. Te zmiany to dopiero początek. Zapoznaj się z pełną listą ogłoszeń, aby poznać najnowsze informacje o Google Play.
Obejrzyj jesienny odcinek The Android Show
Dziękujemy za obejrzenie jesiennego odcinka programu The Android Show. Cieszymy się, że możemy wspólnie tworzyć wspaniałe rzeczy, a ten program jest ważnym elementem naszej komunikacji z Tobą. Chętnie poznamy Twoje pomysły na kolejny odcinek. Możesz się z nami skontaktować na X lub LinkedIn. Specjalne podziękowania dla współgospodarzy, Rebecci Gutteridge i Adetunjiego Dahunsiego, za pomoc w przekazywaniu najnowszych informacji.
Czytaj dalej
-
Wiadomości o usługach
Dziś rozszerzamy możliwości programowania na Androida dzięki Gemmie 4, naszemu najnowszemu, zaawansowanemu modelowi otwartemu, który został zaprojektowany z myślą o złożonym rozumowaniu i autonomicznym wywoływaniu narzędzi.
Matthew McCullough • Czas czytania: 2 minuty
-
Wiadomości o usługach
Wersja beta 3 Androida 17 osiągnęła dziś oficjalnie stabilność platformy. Oznacza to, że interfejs API jest zablokowany. Możesz przeprowadzić ostateczne testy zgodności i przesłać do Sklepu Play aplikacje przeznaczone na Androida 17.
Matthew McCullough • Czas czytania: 5 minut
-
Wiadomości o usługach
Chcemy, aby tworzenie wysokiej jakości aplikacji na Androida było szybsze i łatwiejsze. Jednym ze sposobów na zwiększenie Twojej produktywności jest udostępnienie Ci AI.
Matthew McCullough • Czas czytania: 2 minuty
Bądź na bieżąco
Otrzymuj co tydzień najnowsze informacje o tworzeniu aplikacji na Androida na swoją skrzynkę odbiorczą.