Google I/O 2018: le novità di Lens

La tecnologia Lens di Google protagonista all'I/O 2018: compatibilità con più dispositivi e analisi in tempo reale del mondo che circonda l'utente.
La tecnologia Lens di Google protagonista all'I/O 2018: compatibilità con più dispositivi e analisi in tempo reale del mondo che circonda l'utente.
Google I/O 2018: le novità di Lens

Google Lens ha fatto il suo debutto lo scorso anno con un obiettivo ben preciso: aiutare gli utenti a ottenere informazioni relative al mondo che li circonda, impiegando un complesso sistema di intelligenza artificiale per identificare pressoché qualsiasi cosa inquadrata con la fotocamera dello smartphone. Una tecnologia pronta a compiere un passo in avanti, come spiegato sul palco dell’evento I/O 2018.

La novità più interessante riguarda l’estensione del suo raggio d’azione oltre i device della linea

[!] Ci sono problemi con l’autore. Controllare il mapping sull’Author Manager

, con la compatibilità annunciata per smartphone prodotti da LG, Motorola, Xiaomi, Sony, HMD/Nokia, Transsion, TCL, OnePlus, BQ e ASUS. L’integrazione di Lens con l’Assistente Google e con la piattaforma Google Foto ha permesso fino ad oggi di rispondere a domande come “Che razza di cane è questa?” oppure “Come si chiama questo edificio?”, ma entro le prossime settimane le sue potenzialità verranno notevolmente incrementate.

Sarà in grado di fungere in modo simile a un sistema OCR, interpretando un qualsiasi testo inquadrato, ad esempio il menu di un ristorante oppure un documento cartaceo. In questo modo Lens non solo riconoscerà caratteri e parole, ma fornirà di conseguenza un accesso rapido ad informazioni contestuali. Di seguito un esempio piuttosto chiaro: puntando la fotocamera sul menu è possibile conoscere gli ingredienti di ogni piatto.

Google Lens: informazioni sui piatti elencati in un menu

Google Lens: informazioni sui piatti elencati in un menu

Style Match è invece la feature che consente di ottenere suggerimenti ad esempio sui capi di abbigliamento appartenenti a un determinato stile, semplicemente inquadrandone uno. Lo stesso vale per gli oggetti dell’arredamento e così via.

Google Lens: Style Match

Google Lens: Style Match

Ancora, Lens è in grado di analizzare in tempo reale tutto ciò che viene osservato attraverso la fotocamera, fornendo informazioni in modo immediato. Ciò è reso possibile dall’esecuzione di operazioni in locale, all’interno del dispositivo, in sincronia con gli algoritmi gestiti da remoto attraverso le TPU (Tensor Processing Unit) di Google. Sul palco dell’I/O 2018 è stato mostrato un esempio in cui inquadrando il poster di un concerto parte la riproduzione di un video musicale in streaming da YouTube.

Google Lens: l'analisi del mondo in tempo reale

Google Lens: l’analisi del mondo in tempo reale

Questo articolo contiene link di affiliazione: acquisti o ordini effettuati tramite tali link permetteranno al nostro sito di ricevere una commissione nel rispetto del codice etico. Le offerte potrebbero subire variazioni di prezzo dopo la pubblicazione.

Ti consigliamo anche

Link copiato negli appunti