C’è una scomodità piuttosto comune a FaceTime ed altri servizi di videoconferenza: il contatto visivo non sempre facile tra le parti. Nel caso dell’iPhone, ad esempio, poiché si tende a guardare verso lo schermo e non la fotocamera lo sguardo appare rivolto verso il basso, invece che “alla pari” con quello dell’interlocutore. Con la Beta 3 di iOS 13, ieri Apple ha portato una novità molto interessante in tal senso tra le opzioni: “FaceTime Attention Correction”.
Come si può vedere nelle comparative soprastanti caricate su Twitter da Will Sigmon durante una videochiamata con Mike Rundle, il sistema compensa automaticamente l’abbassamento degli occhi quando rivolti sullo schermo, riducendo in maniera sensibile la differenza rispetto a quando l’attenzione visiva è verso il sensore fotografico e permettendo di mantenere il contatto tra i partecipanti alla conversazione. Il tutto avviene in tempo reale, senza che gli utenti si accorgano di nulla o quasi: a prendersi il merito è ARKit, che crea all’istante una mappatura del volto individuandone i principali elementi, come gli occhi, ed apportando i correttivi. Il video sottostante illustra meglio il funzionamento di questa tecnica, con l’astina degli occhiali che deformandosi mostra il punto in cui viene applicato l’effetto.
How iOS 13 FaceTime Attention Correction works: it simply uses ARKit to grab a depth map/position of your face, and adjusts the eyes accordingly.
Notice the warping of the line across both the eyes and nose. pic.twitter.com/U7PMa4oNGN
— Dave Schukin 🤘 (@schukin) 3 luglio 2019
Una miglioria davvero molto interessante, di quelle che in fondo ci si aspetterebbe arrivare proprio da Apple in primis. Purtroppo il bacino di potenziali beneficiari è alquanto ristretto: non basta disporre della Beta 3 di iOS 13 e aver attivato l’opzione di correzione, ma occorre avere anche un iPhone XR, XS/XS Max o un iPad Pro 2018. A detta di molti sviluppatori intervenuti sulla vicenda, il motivo risiede presumibilmente nel legame della funzionalità con la versione 3 di ARKit, che funziona solo in presenza combinata del SoC A12/A12X e della videocamera anteriore dotata della tecnologia TrueDepth per il rilevamento della profondità. Ciò esclude pure l’iPhone X, che ha la camera necessaria ma un processore di precedente generazione. Salvo “magie”, difficilmente questa feature verrà portata su tutti i dispositivi supportati da iOS 13. Non bisogna poi dimenticarsi che durante la fase Beta funzionalità possono arrivare e venire, pertanto bisognerà attenderne la conferma nel rilascio finale per avere certezze, anche se i buoni presupposti già dimostrati perorano senz’altro la causa per la sua permanenza.