Vertex AI Gemini API

اگر با رابط برنامه‌نویسی Gemini آشنا نیستید، رابط برنامه‌نویسی Gemini Developer API به عنوان ارائه‌دهنده‌ی API برای توسعه‌دهندگان اندروید توصیه می‌شود. اما اگر الزامات خاصی برای مکان داده‌ها دارید یا از قبل در محیط Vertex AI یا Google Cloud مستقر هستید، می‌توانید از رابط برنامه‌نویسی Vertex AI Gemini API استفاده کنید.

مهاجرت از Vertex AI در Firebase

اگر در ابتدا مدل‌های Gemini Flash و Pro را با استفاده از Vertex AI در Firebase ادغام کرده‌اید، می‌توانید به Vertex AI به عنوان یک ارائه‌دهنده API مهاجرت کرده و به استفاده از آن ادامه دهید. برای راهنمای دقیق مهاجرت، مستندات Firebase را مطالعه کنید.

شروع به کار

قبل از اینکه مستقیماً از طریق برنامه خود با Vertex AI Gemini API تعامل داشته باشید، می‌توانید با دستورات در Vertex AI Studio آزمایش کنید.

یک پروژه Firebase راه‌اندازی کنید و برنامه خود را به Firebase متصل کنید

وقتی آماده شدید تا API مربوط به Vertex AI Gemini را از برنامه خود فراخوانی کنید، دستورالعمل‌های موجود در راهنمای شروع به کار با منطق هوش مصنوعی فایربیس «مرحله 1» را برای راه‌اندازی فایربیس و SDK در برنامه خود دنبال کنید.

وابستگی Gradle را اضافه کنید

وابستگی Gradle زیر را به ماژول app خود اضافه کنید:

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:34.4.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

مقداردهی اولیه مدل مولد

با نمونه‌سازی یک GenerativeModel و مشخص کردن نام مدل شروع کنید:

کاتلین

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
                        .generativeModel("gemini-2.5-flash")

جاوا

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.5-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

در مستندات Firebase، می‌توانید اطلاعات بیشتری در مورد مدل‌های موجود برای استفاده با Gemini Developer API کسب کنید. همچنین می‌توانید در مورد پیکربندی پارامترهای مدل اطلاعات کسب کنید.

تولید متن

برای تولید پاسخ متنی، generateContent() به همراه اعلان خود فراخوانی کنید.

کاتلین

// Note: generateContent() is a suspend function, which integrates well
// with existing Kotlin code.
scope.launch {
  val response = model.generateContent("Write a story about a magic backpack.")
}

جاوا

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

مشابه Gemini Developer API، می‌توانید تصاویر، صدا، ویدیو و فایل‌ها را نیز به همراه اعلان متنی خود ارسال کنید. برای جزئیات بیشتر، به بخش «تعامل با Gemini Developer API از برنامه خود» مراجعه کنید.

برای کسب اطلاعات بیشتر در مورد Firebase AI Logic SDK، مستندات Firebase را مطالعه کنید.