Al Google I/O 2019 è stato annunciato che il principale sistema di intelligenza artificiale che fa funzionare Google Assistant sul cloud è stato minimizzato a tal punto da poter essere scaricato su uno smartphone ed eseguire molte operazioni offline. Una delle prime novità che tale sistema permetterà di avere sono i “Live Caption”, ovvero dei sottotitoli in diretta generati sul momento e in qualsiasi video.
Questa feature è stata pensata soprattutto per chi ha problemi di udito e non riesce a stare dietro alle conversazioni nei video.
Built in collaboration with the Deaf and hard-of-hearing community, and coming later this year, Live Caption automatically captions media playing on your phone. #io19 pic.twitter.com/WhzwPuJWD0
— Google (@Google) 7 maggio 2019
Dalla demo abbiamo visto molte applicazioni. Sia che si tratti di aiutare le persone sorde a capire un video di YouTube, un podcast o chattare in Duo, Live Caption intende aiutare a includere coloro che potrebbero essere esclusi. Funziona completamente offline senza bisogno di internet, occupa solo 80 MB di spazio e si attiva con un semplice pulsante dal menu del volume.
If it has audio, now it can have captions. Live Caption automatically captions media playing on your phone. Videos, podcasts and audio messages, across any app—even stuff you record yourself. #io19 pic.twitter.com/XAW3Ii4xxy
— Google (@Google) 7 maggio 2019
Live Caption sembra piuttosto impressionante, certo, ma tirare fuori un’impresa come questa non è per tutti – e stiamo parlando in particolare della potenza computazionale necessaria.
Il tipo di potenza di elaborazione necessaria per generare sottotitoli in tempo reale significa che il debutto di Live Caption sarà limitato ai modelli Android di fascia più alta. Brian Kemler di Google ha recentemente confermato questa limitazione, rilevando che quando vedremo il debutto di Live Caption a fine 2019 sarà solo su smartphone dotati delle risorse adeguate.