Wiadomości o usługach

Przedstawiamy model Gemma 4 w przedpremierowej wersji AICore dla programistów

Czas czytania: 3 minuty

W Google dokładamy wszelkich starań, aby udostępniać najbardziej zaawansowane modele AI bezpośrednio na urządzeniach z Androidem, które masz w kieszeni. Z przyjemnością ogłaszamy wprowadzenie naszego najnowszego, zaawansowanego modelu otwartego: Gemma 4.

Modele te stanowią podstawę kolejnej generacji Gemini Nano, więc kod napisany dziś dla Gemy 4 będzie automatycznie działać na urządzeniach z Gemini Nano 4, które będą dostępne jeszcze w tym roku. Dzięki Gemini Nano 4 możesz korzystać z dodatkowych optymalizacji wydajności, aby wdrażać w środowisku produkcyjnym w całym ekosystemie Androida najbardziej wydajne wnioskowanie na urządzeniu.

Możesz uzyskać wcześniejszy dostęp do tego modelu już dziś w ramach przedpremierowej wersji AICore dla programistów.

large_Inline-imagery.gif

Wybierz model Gemini Nano 4 Fast w interfejsie wersji przedpremierowej dla programistów, aby zobaczyć jego błyskawiczną szybkość wnioskowania w działaniu, zanim napiszesz jakikolwiek kod.

Model Gemma 4 natywnie obsługuje ponad 140 języków, więc możesz oczekiwać lepszych zlokalizowanych i wielojęzycznych wrażeń dla odbiorców na całym świecie. Gemma 4 oferuje też wiodącą w branży wydajność w zakresie rozumienia multimodalnego, dzięki czemu Twoje aplikacje mogą rozumieć i przetwarzać tekst, obrazy i dźwięk. Aby zapewnić Ci najlepszą równowagę między wydajnością a efektywnością, model Gemma 4 na Androida jest dostępny w 2 rozmiarach:

  • E4B: zaprojektowany z myślą o większej mocy rozumowania i złożonych zadaniach.
  • E2B: zoptymalizowany pod kątem maksymalnej szybkości (3 razy szybszy niż model E4B!) i mniejszych opóźnień.

Nowy model jest nawet 4 razy szybszy od poprzednich wersji i zużywa do 60% mniej baterii. Od dziś możesz wypróbować ulepszone funkcje, w tym:

  • Uzasadnienie: polecenia dotyczące ciągu myślowego i instrukcje warunkowe mogą teraz zwracać wyniki o wyższej jakości. Przykład: „Sprawdź, czy poniższy komentarz w wątku dyskusji jest zgodny z wytycznymi dla społeczności. Komentarz nie spełnia wytycznych dla społeczności, jeśli zawiera co najmniej jeden z tych powodów zgłoszenia: „wulgaryzmy”, „obraźliwe wypowiedzi”, „szerzenie nienawiści”. Jeśli komentarz spełnia wytyczne dla społeczności, zwróć wartość {true}. W przeciwnym razie zwróć {false, reason_for_flag}”.
  • Matematyka: model ma lepsze umiejętności matematyczne, dzięki czemu może dokładniej odpowiadać na pytania. Przykład: „Jeśli otrzymuję 26 wypłat rocznie, ile powinienem odkładać z każdej wypłaty,aby w ciągu roku osiągnąć cel oszczędnościowy w wysokości 10 tys. zł?”
  • Rozumienie czasu: model lepiej radzi sobie z rozumowaniem czasu, dzięki czemu jest dokładniejszy w przypadkach użycia związanych z kalendarzami, przypomnieniami i alarmami. Przykład: „Wydarzenie odbędzie się 18 sierpnia o godzinie 18:00, a przypomnienie powinno zostać wysłane 10 godzin przed wydarzeniem. Zwróć godzinę i datę wysłania przypomnienia”.
  • Rozpoznawanie obrazów: przypadki użycia, które obejmują optyczne rozpoznawanie znaków (OCR), takie jak rozumienie wykresów, wyodrębnianie danych wizualnych i rozpoznawanie pisma odręcznego, będą teraz zwracać dokładniejsze wyniki.

Dołącz do wersji przedpremierowej dla programistów, aby pobrać te modele w wersji testowej i od razu zacząć tworzyć funkcje nowej generacji.

Rozpocznij testowanie modelu

Model możesz wypróbować bez kodu, postępując zgodnie z przewodnikiem po wersji przedpremierowej dla programistów. Jeśli chcesz od razu zintegrować te modele z dotychczasowym procesem, możesz to zrobić bez problemu. Otwórz Android Studio, aby dopracować prompt i tworzyć projekty za pomocą znanego interfejsu ML Kit Prompt API. Wprowadziliśmy nową funkcję określania modelu, która umożliwia kierowanie testów na warianty E2B (szybki) lub E4B (pełny).

// Define the configuration with a specific track and preference
val previewFullConfig = generationConfig {
    modelConfig = ModelConfig {
        releaseTrack = ModelReleaseTrack.PREVIEW
        preference = ModelPreference.FULL
    }
}

// Initialize the GenerativeModel with the configuration
val previewModel = GenerativeModel.getClient(previewFullConfig)

// Verify that the specific preview model is available
val previewModelStatus = previewModel.checkStatus()
if (previewModelStatus == FeatureStatus.AVAILABLE) {
    // Proceed with inference
    val response = previewModel.generateContent("If I get 26 paychecks per year, how much I should contribute each paycheck to reach my savings goal of $10k over the course of a year? Return only the amount.")

} else {
    // Handle the case where the preview model is not available
    // (e.g., print out log statements)
}

Czego możesz się spodziewać podczas wersji przedpremierowej dla programistów

Celem tej wersji przedpremierowej dla programistów jest umożliwienie Ci dopracowania dokładności promptówpoznania nowych przypadków użycia w Twoich aplikacjach.

W okresie podglądu wprowadzimy kilka aktualizacji, w tym obsługę wywoływania narzędzi, danych strukturalnych, promptów systemowych i trybu myślenia w interfejsie Prompt API. Ułatwi to pełne wykorzystanie nowych możliwości Gemy 4, a także znaczną optymalizację wydajności.

Modele w wersji podglądowej są dostępne do testowania na urządzeniach z AICore. Modele te będą działać na akceleratorach AI najnowszej generacji od Google, MediaTek i Qualcomm Technologies. Na innych urządzeniach modele będą początkowo działać w implementacji na procesorze, która nie odzwierciedla wydajności w wersji produkcyjnej. Jeśli Twoje urządzenie nie obsługuje AICore, możesz też przetestować te modele w aplikacji AI Edge Gallery. W przyszłości będziemy obsługiwać więcej urządzeń.

Od czego zacząć

Chcesz zobaczyć, co Gemma 4 może zrobić dla Twoich użytkowników?

  1. Zgoda: zarejestruj się w  przedpremierowej wersji AICore dla programistów.
  2. Pobieranie: po wyrażeniu zgody możesz uruchomić pobieranie najnowszych modeli Gemma 4 bezpośrednio na obsługiwane urządzenie testowe.
  3. Kompilacja: zaktualizuj implementację ML Kit, aby korzystać z nowych modeli, i zacznij tworzyć aplikację w Android Studio.
Autor:

Czytaj dalej