إذا كنت حديث العهد باستخدام Gemini API، ننصحك باستخدام Gemini Developer API، وهي مزوّد واجهة برمجة التطبيقات الذي ننصح به لمطوّري تطبيقات Android. ولكن إذا كانت لديك متطلبات محددة بشأن الموقع الجغرافي للبيانات أو كنت تستخدم حاليًا بيئة Vertex AI أو Google Cloud، يمكنك استخدام Vertex AI Gemini API.
نقل البيانات من Vertex AI في Firebase
إذا سبق لك دمج طرازَي Gemini Flash وPro باستخدام Vertex AI في Firebase، يمكنك الانتقال إلى Vertex AI ومواصلة استخدامه كمزوّد واجهة برمجة تطبيقات. اطّلِع على مستندات Firebase للحصول على دليل نقل بيانات مفصّل.
خطوات البدء:
قبل التفاعل مع Vertex AI Gemini API مباشرةً من تطبيقك، يمكنك تجربة الطلبات في Vertex AI Studio.
إعداد مشروع على Firebase وربط تطبيقك به
بعد أن تصبح جاهزًا لاستدعاء Vertex AI Gemini API من تطبيقك، اتّبِع التعليمات الواردة في دليل بدء استخدام "الخطوة 1" من Firebase AI Logic لإعداد Firebase وحزمة تطوير البرامج (SDK) في تطبيقك.
إضافة تبعية Gradle
أضِف تبعية Gradle التالية إلى وحدة تطبيقك:
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:34.4.0"))
// Add the dependency for the Firebase AI Logic library. When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
تهيئة النموذج التوليدي
ابدأ بإنشاء مثيل GenerativeModel وتحديد اسم النموذج:
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
.generativeModel("gemini-2.5-flash")
Java
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
.generativeModel("gemini-2.5-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
في مستندات Firebase، يمكنك الاطّلاع على مزيد من المعلومات حول النماذج المتاحة للاستخدام مع Gemini Developer API. يمكنك أيضًا الاطّلاع على معلومات حول ضبط مَعلمات النموذج.
إنشاء نص
لإنشاء ردّ نصي، اتّصِل بالرقم generateContent() مع طلبك.
Kotlin
// Note: generateContent() is a suspend function, which integrates well
// with existing Kotlin code.
scope.launch {
val response = model.generateContent("Write a story about a magic backpack.")
}
Java
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
كما هو الحال مع Gemini Developer API، يمكنك أيضًا إرسال صور ومحتوى صوتي وفيديوهات وملفات مع طلبك النصي. لمزيد من التفاصيل، يُرجى الاطّلاع على مقالة التفاعل مع Gemini Developer API من تطبيقك.
لمزيد من المعلومات عن حزمة تطوير البرامج (SDK) الخاصة بمنطق الذكاء الاصطناعي في Firebase، يمكنك الاطّلاع على مستندات Firebase.