Jeśli dopiero zaczynasz korzystać z Gemini API, Gemini Developer API jest zalecanym dostawcą interfejsu API dla programistów na Androida. Jeśli jednak masz określone dane wymagania dotyczące lokalizacji lub korzystasz już ze środowiska Vertex AI lub Google Cloud, możesz użyć interfejsu Vertex AI Gemini API.
Migracja z Vertex AI w Firebase
Jeśli pierwotnie zintegrowano modele Gemini Flash i Pro za pomocą Vertex AI w Firebase, możesz przeprowadzić migrację i nadal używać Vertex AI jako dostawcy interfejsu API. Szczegółowy przewodnik po migracji znajdziesz w dokumentacji Firebase.
Pierwsze kroki
Zanim zaczniesz wchodzić w interakcje z interfejsem Vertex AI Gemini API bezpośrednio z aplikacji, możesz eksperymentować z promptami w Vertex AI Studio.
Skonfiguruj projekt w Firebase i połącz aplikację z Firebase
Gdy będziesz gotowy(-a) do wywoływania interfejsu Vertex AI Gemini API z aplikacji, postępuj zgodnie z instrukcjami w sekcji „Krok 1” przewodnika Pierwsze kroki z Firebase AI Logic, aby skonfigurować Firebase i pakiet SDK w aplikacji.
Dodaj zależność Gradle
Dodaj do modułu aplikacji tę zależność Gradle:
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:34.12.0"))
// Add the dependency for the Firebase AI Logic library. When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
Zainicjuj model generatywny
Zacznij od utworzenia instancji GenerativeModel i określenia nazwy modelu:
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.vertexAI()) .generativeModel("gemini-2.5-flash")
Java
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI()) .generativeModel("gemini-2.5-flash"); GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Więcej informacji o dostępnych modelach dostępnych do użycia z Gemini Developer API znajdziesz w dokumentacji Firebase. Możesz też dowiedzieć się jak skonfigurować parametry modelu.
Generowanie tekstu
Aby wygenerować odpowiedź tekstową, wywołaj funkcję generateContent() z promptem.
Kotlin
suspend fun generateText(model: GenerativeModel) { // Note: generateContent() is a suspend function, which integrates well // with existing Kotlin code. val response = model.generateContent("Write a story about a magic backpack.") // ... }
Java
Content prompt = new Content.Builder() .addText("Write a story about a magic backpack.") .build(); ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt); Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() { @Override public void onSuccess(GenerateContentResponse result) { String resultText = result.getText(); // ... } @Override public void onFailure(Throwable t) { t.printStackTrace(); } }, executor);
Podobnie jak w przypadku Gemini Developer API, możesz też przekazywać obrazy, dźwięk, filmy i pliki z promptem tekstowym. Szczegółowe informacje znajdziesz w artykule Interakcja z Gemini Developer API z poziomu aplikacji.
Więcej informacji o pakiecie Firebase AI Logic SDK znajdziesz w dokumentacji Firebase.