Una delle migliori fotocamere per smartphone sul mercato (se non la migliore) sta per migliorare ancora. XDA segnala che il codice trovato nell’app Google Fotocamera da uno dei suoi membri senior cita la possibilità dell’acquisizione di foto e video con lo spazio colore P3. Molto probabilmente si tratta di una base di preparazione per il Google Pixel 4.
Lo spazio colore P3 è lo stesso sistema di imaging utilizzato dalle fotocamere dell’iPhone e cattura una gamma di colori che è il 25% maggiore rispetto a quella catturata dal sistema sRGB attualmente utilizzato su Android.
Apple ha iniziato a utilizzare lo spazio colore P3 con l’iPhone 7, e Google ha detto l’anno scorso che avrebbe portato un ampio spettro di colori su Android. A quel tempo, XDA aveva trovato campioni di foto da un Pixel 3 che contenevano un profilo colore incorporato P3, ma quando il telefono è stato rilasciato usava ancora il sistema sRGB.
Apparentemente, tutti i sensori possono acquisire colori al di fuori della gamma di colori sRGB, ma al momento le app Android non la supportano. Di certo, nessun sito di social media su Android può mostrare correttamente le foto a colori dagli utenti iOS (vista la compressione adottata). E se un utente iOS condivide tale foto con un telefono Android, i colori fuori dal’intervallo vengono sostituiti dal colore più vicino trovato nella gamma sRGB.
Lasciando un attimo l’aspetto software e approdando nell’hardware, il Google Pixel 4 sfoggerà un modulo fotografico quadrato simile a iPhone 11, con l’aspetto bicolore sul retro sparito. E non abbiamo potuto fare a meno di pensare che quando Google ha twittato su Pixel 4, “Aspetta fino a quando vedi cosa può fare”, stava parlando dell’integrazione di Project Soli.
Quest’ultima è la tecnologia di rilevamento di Google e consente di controllare un dispositivo utilizzando gesture aeree o tocchi molto leggeri. Non si tratta di altro che un radar che viene utilizzato per tracciare “micro movimenti” della mano.
In altre parole, il Google Pixel 4 potrebbe essere equipaggiato con una tecnologia di mappatura 3D, possibilmente utilizzando un sensore Time-of-Flight (ToF), che sarà in grado di mappare il viso in maniera simile al Face ID usato da Apple. Da quello che abbiamo appreso, il Google Pixel 4 sarà equipaggiato con cinque sensori frontali.