Dovrai credermi sulla parola per questo. Ho provato gli occhiali AI di Google al MWC 2026, ma poiché sono prototipi, non sono riuscito a scattare foto dell’hardware.
È comprensibile, anche se un po’ strano.
Comprensibile, perché se vedete gli smartglass mostrati al MWC, non sono le versioni di produzione.
Ma è strano perché se hai visto gli occhiali fotografato al Google I/O e CES 2026, quindi sono molto simili, solo un po’ più raffinati.
A parte questo, posso dirti tutto su come funzionano e, in base alla mia esperienza, altri marchi che lanceranno smartglass nel 2026 dovrebbero essere piuttosto preoccupati per i piani di Google.
Utilizzando i prototipi
Il comfort è fondamentale
Gli smartglass che ho provato non erano le versioni finali di Google e delle sue partnership con Gentle Monster o Warby Parker, ma anche senza questi nomi a bordo, l’hardware sembrava fantastico.
Non avevo alcuna preoccupazione per il peso, le dimensioni o l’equilibrio. Gli occhiali si adattavano comodamente, non pesavano sul ponte del naso e Google aveva adattato le lenti alla mia prescrizione, il che significava che potevo vedere facilmente ciò che c’era sullo schermo.
Lo schermo è centrale nella tua visione e nel colore. Il display del prototipo non era poi così luminoso, ma era ancora visibile nel piccolo stand dimostrativo, con molta luce naturale proveniente dalle finestre a tutta altezza.
Questa è l’unica area in cui vorrei vedere qualche miglioramento nella versione finale, poiché anche se all’interno lo schermo andava bene, non sono sicuro di quanto sarebbe visibile in pieno sole all’aperto.
Mancano ancora mesi al lancio ufficiale, quindi questo non è ancora un problema.
Provando Gemini Live
Conversazione naturale
Gli occhiali Google AI mettono Gemini Live sul tuo viso e, se hai utilizzato Gemini Live, sul tuo telefono tramite Google Pixel Buds 2 Proallora hai un vantaggio (se perdonerai il gioco di parole) sull’esperienza.
Un tocco lungo due secondi sul braccio degli smartglass ha attivato Gemini Live e, utilizzando la fotocamera nei fotogrammi, è stato in grado non solo istantaneamente, ma anche di descrivere accuratamente ciò che stava “vedendo”.
Mi ha parlato attraverso la copertina di un album e l’artista, inoltre mi ha detto chi ha dipinto un’opera d’arte, il tutto mentre usavo un linguaggio molto normale e naturale.
Questa è la forza di Gemini Live. Puoi parlargli proprio come faresti con un’altra persona, ed è molto bravo a capirti.
Google Maps è fantastico
Semplificare la navigazione
La demo di gran lunga più impressionante è stata Google Maps.
Ho mostrato a Gemini una foto dello stadio Camp Nou di Barcellona utilizzando la fotocamera degli smartglasses e gli ho chiesto informazioni generali sul luogo e anche su come arrivarci.
Ha risposto alle mie domande, poi ha iniziato a camminare in direzione del Camp Nou.
La particolarità è che quando guardi avanti e davanti a te, vedi le indicazioni in stile didascalia con una freccia e un indicatore di distanza. Tuttavia, guarda leggermente in basso e questa visualizzazione cambierà in indicazioni in stile mappa.
Ciò che lo rende utile è che non è necessario fissare i propri piedi per vedere la mappa e questa rimane nella visione periferica. Guarda in alto, ad esempio verso un segnale stradale o un altro punto di interesse, e la tua vista non sarà oscurata da una grande mappa.
È un’implementazione davvero intelligente e ben congegnata della navigazione negli smartglasses. Ti mantiene presente, evita la necessità di tenere in mano e guardare il telefono e non si intromette nel mondo reale.
L’esperienza di Google nell’interfaccia utente, oltre a Maps, è evidente quando la usi.
Dandogli tempo
Non avere fretta potrebbe essere la cosa migliore
In base alla mia esperienza, c’è poco che impedisca a Google di rilasciare i suoi smartglass nel prossimo futuro, anche con una versione migliorata dell’hardware prototipo. Allora perché ci vuole così tanto tempo?
Potrebbero esserci alcuni motivi. Durante la mia demo ho notato che Gemini e i miei input sugli smartglass venivano monitorati, come minimo, da un “operatore”, dimostrando che sta ancora andando avanti con lo sviluppo e assicurandosi che tutto funzioni senza problemi. Certamente, la mia demo è stata impeccabile.
Inoltre, i partner Gentle Monster e Warby Parker hanno bisogno di tempo per sviluppare montature adatte agli smartglass. Nessuno dei due vorrà inviare montature che non riflettano gli standard di design, vestibilità o comfort del marchio.
Se Google sta ancora finalizzando il software, è probabile che anche i produttori di telai si prenderanno il loro tempo per sistemare le cose.
Google ha già provato a definire gli occhiali intelligenti, ma non ha funzionato come sperava. Vorrà che il suo secondo grande sforzo abbia molto più successo.
Da quello che ho sperimentato al MWC 2026, i prossimi occhiali AI di Google hanno il potenziale per farlo mostra il resto del mondo della tecnologia indossabile come è fatto.
Mi dispiace solo di non poterti ancora mostrare l’hardware.


