Novedades sobre productos

Inferencia híbrida experimental y nuevos modelos de Gemini para Android

Lectura de 3 min
Thomas Ezan
Ingeniero sénior de Relaciones con Desarrolladores

Si eres desarrollador de Android y quieres implementar funciones innovadoras basadas en IA en tu app, hace poco lanzamos nuevas y potentes actualizaciones:

  • Inferencia híbrida, una nueva API para que Firebase AI Logic aproveche la inferencia integrado en el dispositivo y en la nube
  • Se agregó compatibilidad con los nuevos modelos de Gemini, incluidos los modelos de Nano Banana más recientes para la generación de imágenes.

Comencemos.

Experimenta con la inferencia híbrida

Con la nueva API de Firebase para la inferencia híbrida, implementamos un enfoque de enrutamiento simple basado en reglas como solución inicial para permitirte usar la inferencia en el dispositivo y en la nube a través de una API unificada. Planeamos ofrecer funciones de rutas más sofisticadas en el futuro.

Permite que tu app cambie de forma dinámica entre Gemini Nano, que se ejecuta de forma local en el dispositivo, y los modelos de Gemini alojados en la nube. La ejecución integrada en el dispositivo usa la API de Prompt de ML Kit. La inferencia en la nube admite todos los modelos de Gemini de Firebase AI Logic en Vertex AI y en la API de Developer.

Para usarla, agrega las dependencias de firebase-ai-ondevice a tu app junto con Firebase AI Logic:

dependencies {
 [...] 
 implementation("com.google.firebase:firebase-ai:17.10.1")
 implementation("com.google.firebase:firebase-ai-ondevice:16.0.0-beta01")
}

Durante la inicialización, creas una instancia de GenerativeModel y la configuras con modos de inferencia específicos, como PREFER_ON_DEVICE (recurre a la nube si Gemini Nano no está disponible en el dispositivo) o PREFER_IN_CLOUD (recurre a la inferencia integrada en el dispositivo si no hay conexión):

val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel(
        modelName = "gemini-3.1-flash-lite",
        onDeviceConfig = OnDeviceConfig(
           mode = InferenceMode.PREFER_ON_DEVICE
        )
    )

val response = model.generateContent(prompt)

La API de Firebase para la inferencia híbrida en Android aún es experimental, y te recomendamos que la pruebes en tu app, en especial si ya usas Firebase AI Logic. 

Actualmente, los modelos integrados en el dispositivo están especializados en la generación de texto de un solo turno basada en texto o entradas de imágenes de mapa de bits individuales. Revisa las limitaciones para obtener más detalles.

Acabamos de publicar un nuevo ejemplo en el catálogo de ejemplos de IA que aprovecha la API de Firebase para la inferencia híbrida. En él, se muestra cómo se puede usar la API de Firebase para la inferencia híbrida para generar una opinión basada en algunos temas seleccionados y, luego, traducirla a varios idiomas. Consulta el código para verlo en acción.

Hybrid_Inference-Inline-imagery.gif
La nueva muestra de inferencia híbrida en acción

La nueva muestra de inferencia híbrida en acción 

Prueba nuestros nuevos modelos

Como parte de los nuevos modelos de Gemini, lanzamos dos modelos que son particularmente útiles para los desarrolladores de Android y fáciles de integrar en tu aplicación a través del SDK de Firebase AI Logic.

Nano Banana
El año pasado, lanzamos Nano Banana, un modelo de generación de imágenes de vanguardia. Y, hace algunas semanas, lanzamos un par de modelos nuevos de Nana Banana.

Nano Banana Pro (Gemini 3 Pro Image) se diseñó para la producción de recursos profesionales y puede renderizar texto de alta fidelidad, incluso en una fuente específica o simulando diferentes tipos de escritura a mano.

Nano Banana 2 (Gemini 3.1 Flash Image) es la contraparte de alta eficiencia de Nano Banana Pro. Está optimizada para la velocidad y los casos de uso de gran volumen. Se puede usar para una amplia variedad de casos de uso (infografías, calcomanías virtuales, ilustraciones contextuales, etcétera).  

Los nuevos modelos de Nano Banana aprovechan el conocimiento del mundo real y las capacidades de razonamiento profundo para generar imágenes precisas y detalladas.

Actualizamos nuestro ejemplo de Selfie mágica (usa la generación de imágenes para cambiar el fondo de tu selfie) para usar Nano Banana 2. Ahora, la segmentación del fondo se controla directamente con el modelo de generación de imágenes, lo que facilita la implementación y permite que se destaquen las capacidades mejoradas de generación de imágenes de Nano Banana 2. Aquí puedes ver cómo funciona.

magic_selfie.png
La muestra actualizada de Magic Selfie usa Nanobana 2 para actualizar el fondo de una selfie

Puedes usarlo a través del SDK de Firebase AI Logic. Obtén más información en la documentación de Android.

Gemini 3.1 Flash-Lite

También lanzamos Gemini 3.1 Flash-Lite, una nueva versión de la familia Gemini Flash-Lite. Los modelos de Gemini Flash-Lite son los favoritos de los desarrolladores de Android por su buena relación calidad/latencia y su bajo costo de inferencia. Los desarrolladores de Android lo han usado para varios casos de uso, como la traducción de mensajes integrados en la app o la generación de una receta a partir de la foto de un plato.  

Gemini 3.1 Flash-Lite, que actualmente se encuentra en versión preliminar, permitirá casos de uso más avanzados con una latencia comparable a la de Gemini 2.5 Flash-Lite.

Para obtener más información sobre este modelo, consulta la documentación de Firebase.

Conclusión

Es un buen momento para explorar la nueva muestra híbrida en nuestro catálogo y ver estas capacidades en acción, así como comprender los beneficios del enrutamiento entre la inferencia integrado en el dispositivo y la inferencia en la nube. También te recomendamos que consultes nuestra documentación para probar los nuevos modelos de Gemini.

Escrito por:

Seguir leyendo