L'esperienza degli occhiali AI si basa sul framework Activity
API Android esistente e include concetti aggiuntivi per supportare gli aspetti unici degli
occhiali AI. A differenza dei visori XR che eseguono un APK completo sul dispositivo, gli occhiali AI utilizzano
un'attività dedicata che viene eseguita all'interno dell'app esistente dello smartphone. Questa attività
viene proiettata dal dispositivo host agli occhiali AI.
Per creare l'esperienza con gli occhiali AI della tua app, estendi l'app per smartphone esistente
creando un nuovo Activity proiettato per gli occhiali AI. Questa attività funge
da punto di accesso principale per l'avvio della tua app sugli occhiali AI. Questo approccio
semplifica lo sviluppo perché puoi condividere e riutilizzare la logica di business tra
le esperienze dello smartphone e degli occhiali AI.
Compatibilità delle versioni
Consulta i requisiti di compatibilità dell'SDK Android per l'SDK Jetpack XR.
Dipendenze
Aggiungi le seguenti dipendenze della libreria per gli occhiali con AI:
Groovy
dependencies { implementation "androidx.xr.runtime:runtime:1.0.0-alpha10" implementation "androidx.xr.glimmer:glimmer:1.0.0-alpha06" implementation "androidx.xr.projected:projected:1.0.0-alpha04" implementation "androidx.xr.arcore:arcore:1.0.0-alpha10" }
Kotlin
dependencies { implementation("androidx.xr.runtime:runtime:1.0.0-alpha10") implementation("androidx.xr.glimmer:glimmer:1.0.0-alpha06") implementation("androidx.xr.projected:projected:1.0.0-alpha04") implementation("androidx.xr.arcore:arcore:1.0.0-alpha10") }
Dichiarare l'attività nel file manifest dell'app
Come per altri tipi di attività, devi dichiarare la tua attività nel file manifest dell'app affinché il sistema possa visualizzarla ed eseguirla.
<application>
<activity
android:name="com.example.xr.projected.GlassesMainActivity"
android:exported="true"
android:requiredDisplayCategory="xr_projected"
android:label="Example AI Glasses activity">
<intent-filter>
<action android:name="android.intent.action.MAIN" />
</intent-filter>
</activity>
</application>
Punti chiave sul codice
- Specifica
xr_projectedper l'attributoandroid:requiredDisplayCategoryper indicare al sistema che questa attività deve utilizzare un contesto proiettato per accedere all'hardware da un dispositivo connesso.
Crea la tua attività
Successivamente, creerai una piccola attività che può visualizzare qualcosa sugli occhiali AI ogni volta che il display è acceso.
@OptIn(ExperimentalProjectedApi::class) class GlassesMainActivity : ComponentActivity() { private var displayController: ProjectedDisplayController? = null private var isVisualUiSupported by mutableStateOf(false) private var areVisualsOn by mutableStateOf(true) override fun onCreate(savedInstanceState: Bundle?) { super.onCreate(savedInstanceState) lifecycle.addObserver(object : DefaultLifecycleObserver { override fun onDestroy(owner: LifecycleOwner) { displayController?.close() displayController = null } }) lifecycleScope.launch { // Check device capabilities val projectedDeviceController = ProjectedDeviceController.create(this@GlassesMainActivity) isVisualUiSupported = projectedDeviceController.capabilities.contains(CAPABILITY_VISUAL_UI) val controller = ProjectedDisplayController.create(this@GlassesMainActivity) displayController = controller val observer = GlassesLifecycleObserver( context = this@GlassesMainActivity, controller = controller, onVisualsChanged = { visualsOn -> areVisualsOn = visualsOn } ) lifecycle.addObserver(observer) } setContent { GlimmerTheme { HomeScreen( areVisualsOn = areVisualsOn, isVisualUiSupported = isVisualUiSupported, onClose = { finish() } ) } } } }
Punti chiave sul codice
- Attiva l'utilizzo delle API sperimentali della libreria Jetpack Projected.
GlassesMainActivityestendeComponentActivity, proprio come ti aspetteresti nello sviluppo mobile.- Poiché non tutti gli occhiali AI hanno un display, controlla se il dispositivo ha un display utilizzando
ProjectedDeviceController. - Il blocco
setContentall'interno della funzioneonCreatedefinisce la radice dell'albero della UI componibile per l'attività. Implementerai il componibileHomeScreenutilizzando Jetpack Compose Glimmer. - Inizializza l'interfaccia utente durante il metodo
onCreatedell'attività (vedi ciclo di vita dell'attività proiettato).
Implementare il composable
L'attività che hai creato fa riferimento a una funzione componibile HomeScreen che
devi implementare. Il seguente codice utilizza Jetpack Compose Glimmer per
definire un elemento componibile che può visualizzare del testo sul display degli occhiali AI:
@Composable fun HomeScreen( areVisualsOn: Boolean, isVisualUiSupported: Boolean, onClose: () -> Unit, modifier: Modifier = Modifier ) { Box( modifier = modifier .surface(focusable = false) .fillMaxSize(), contentAlignment = Alignment.Center ) { if (isVisualUiSupported) { Card( title = { Text("Android XR") }, action = { Button(onClick = onClose) { Text("Close") } } ) { if (areVisualsOn) { Text("Hello, AI Glasses!") } else { Text("Display is off. Audio guidance active.") } } } else { Text("Audio Guidance Mode Active") } } }
Punti chiave sul codice
- Come hai definito in precedenza nell'attività, la funzione
HomeScreeninclude i contenuti componibili che l'utente vede quando il display degli occhiali AI è acceso. - Il componente Jetpack Compose Glimmer
Textmostra il testo "Hello, AI Glasses!" sul display degli occhiali. - Il Glimmer di Jetpack Compose
Buttonchiude l'attività chiamandofinish()tramiteonClosenell'attività degli occhiali AI.
Controllare se gli occhiali con AI sono connessi
Per determinare se gli occhiali AI di un utente sono connessi al suo smartphone prima di avviare la tua attività, utilizza il metodo ProjectedContext.isProjectedDeviceConnected. Questo metodo
restituisce un Flow<Boolean> che la tua app può osservare per ricevere aggiornamenti in tempo reale sullo stato della connessione.
Avviare l'attività
Ora che hai creato un'attività di base, puoi avviarla sugli occhiali. Per accedere all'hardware degli occhiali, la tua app deve avviare l'attività con opzioni specifiche che indicano al sistema di utilizzare un contesto proiettato, come mostrato nel codice seguente:
val options = ProjectedContext.createProjectedActivityOptions(context) val intent = Intent(context, GlassesMainActivity::class.java) context.startActivity(intent, options.toBundle())
Il metodo createProjectedActivityOptions in ProjectedContext
genera le opzioni necessarie per avviare l'attività in un contesto proiettato.
Il parametro context può essere un contesto dello smartphone o degli occhiali.
Passaggi successivi
Ora che hai creato la tua prima attività per gli occhiali AI, esplora altri modi per estenderne la funzionalità:
- Gestire l'output audio utilizzando Text to Speech
- Gestire l'input audio utilizzando il riconoscimento vocale automatico
- Creare UI con Jetpack Compose Glimmer
- Accedere all'hardware degli occhiali AI