
Google ha già dimostrato di essere in grado di applicare degli algoritmi di riconoscimento degli oggetti molto avanzati nei propri servizi. Pensiamo ad esempio a Google Foto, nel quale è possibile far catalogare in maniera automatica a Google le nostre foto in base a vari parametri (negli USA anche in base al volto). Tuttavia, applicare questo concetto al riconoscimento istantaneo degli oggetti che ci circondano è un po’ fantascienza, visto che serve una quantità di calcoli molto elevata. O forse no?
Attraverso una collaborazione con l’azienda Movidius, leader nel progettare chip a basso impatto energetico in grado di connettersi con molti altri (il settore IoT quindi), Google potrebbe aver trovato il modo di bypassare i propri server e far effettuare il riconoscimento degli oggetti in maniera locale.
Sfruttando quindi degli algoritmi locali e la potenza computazionale della CPU (MA2450) presente all’interno di uno smartphone, sarà possibile aumentare l’esperienza d’uso di tutte quelle persone che hanno delle difficoltà visive. Pensiamo ad esempio alle persone cieche che non riacquisteranno certo la vista con questo chip ma saranno comunque facilitate nell’andare in giro per la città.
Molto probabilmente Google implementerà anche la tecnologia del Project Tango nei primi prototipi che costruirà. Al momento comunque non si hanno notizie su una possibile applicazione commerciale.