Google Lens, un analizzatore di immagini basato sull’apprendimento automatico (machine learning), è stato annunciato per la prima volta al Google I/O 2017. Esso è presente attualmente in Google Foto (per scansionare foto esistenti) e Google Assistant (per eseguire la scansione in tempo reale), ma entrambi i metodi richiedono uno smartphone della linea Pixel.
Insieme ad alcuni annunci sul framework ARCore (ora compatibile con Google Pixel, Pixel XL, Pixel 2, Pixel 2 XL, Samsung Galaxy S8, S8+, Note 8, S7, S7 edge, LG V30, LG V30+, Asus Zenfone AR e OnePlus 5), Google ha rivelato che Lens verrà implementato su altri dispositivi Android e farà la sua apparizione anche su iOS.
Google Lens nell’applicazione Google Foto sarà presto disponibile per tutti gli utenti di lingua inglese sia su Android che su iOS. Sarete in grado di scansionare le foto per punti di riferimento e oggetti, indipendentemente dalla piattaforma che utilizziate. Inoltre, Lens in Assistant inizierà a diffondersi verso “dispositivi di punta compatibili” nelle prossime settimane. L’azienda dice che aggiungerà il supporto per più dispositivi col passare del tempo.
Con Google Lens, la fotocamera del tuo telefono può aiutarti a capire il mondo intorno a te e stiamo espandendo la disponibilità di Google Lens. Con Lens in Google Foto, quando scatti una foto, puoi ottenere ulteriori informazioni su ciò che è presente nella tua foto.
Dal lancio, abbiamo aggiunto funzionalità di selezione del testo, la possibilità di creare contatti ed eventi da una foto con un solo tocco e, nelle prossime settimane, un supporto migliorato per il riconoscimento di animali e piante comuni, come diverse razze canine e fiori.