اگر با رابط برنامهنویسی Gemini آشنا نیستید، رابط برنامهنویسی Gemini Developer API به عنوان ارائهدهندهی API برای توسعهدهندگان اندروید توصیه میشود. اما اگر الزامات خاصی برای مکان دادهها دارید یا از قبل در محیط Vertex AI یا Google Cloud مستقر هستید، میتوانید از رابط برنامهنویسی Vertex AI Gemini API استفاده کنید.
مهاجرت از Vertex AI در Firebase
اگر در ابتدا مدلهای Gemini Flash و Pro را با استفاده از Vertex AI در Firebase ادغام کردهاید، میتوانید به Vertex AI به عنوان یک ارائهدهنده API مهاجرت کرده و به استفاده از آن ادامه دهید. برای راهنمای دقیق مهاجرت، مستندات Firebase را مطالعه کنید.
شروع به کار
قبل از اینکه مستقیماً از طریق برنامه خود با Vertex AI Gemini API تعامل داشته باشید، میتوانید با دستورات در Vertex AI Studio آزمایش کنید.
یک پروژه Firebase راهاندازی کنید و برنامه خود را به Firebase متصل کنید
وقتی آماده شدید تا API مربوط به Vertex AI Gemini را از برنامه خود فراخوانی کنید، دستورالعملهای موجود در راهنمای شروع به کار با منطق هوش مصنوعی فایربیس «مرحله 1» را برای راهاندازی فایربیس و SDK در برنامه خود دنبال کنید.
وابستگی Gradle را اضافه کنید
وابستگی Gradle زیر را به ماژول app خود اضافه کنید:
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:34.4.0"))
// Add the dependency for the Firebase AI Logic library. When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
مقداردهی اولیه مدل مولد
با نمونهسازی یک GenerativeModel و مشخص کردن نام مدل شروع کنید:
کاتلین
val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
.generativeModel("gemini-2.5-flash")
جاوا
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
.generativeModel("gemini-2.5-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
در مستندات Firebase، میتوانید اطلاعات بیشتری در مورد مدلهای موجود برای استفاده با Gemini Developer API کسب کنید. همچنین میتوانید در مورد پیکربندی پارامترهای مدل اطلاعات کسب کنید.
تولید متن
برای تولید پاسخ متنی، generateContent() به همراه اعلان خود فراخوانی کنید.
کاتلین
// Note: generateContent() is a suspend function, which integrates well
// with existing Kotlin code.
scope.launch {
val response = model.generateContent("Write a story about a magic backpack.")
}
جاوا
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
مشابه Gemini Developer API، میتوانید تصاویر، صدا، ویدیو و فایلها را نیز به همراه اعلان متنی خود ارسال کنید. برای جزئیات بیشتر، به بخش «تعامل با Gemini Developer API از برنامه خود» مراجعه کنید.
برای کسب اطلاعات بیشتر در مورد Firebase AI Logic SDK، مستندات Firebase را مطالعه کنید.