iOS 13 Beta 3 e ARKit correggono automaticamente la posizione degli occhi per mantenere sempre il contatto visivo in FaceTime

Leggi questo articolo grazie alle donazioni di Franco Magro, Paola Bellini.
♥ Partecipa anche tu alle donazioni: sostieni SaggiaMente, sostieni le tue passioni!

C’è una scomodità piuttosto comune a FaceTime ed altri servizi di videoconferenza: il contatto visivo non sempre facile tra le parti. Nel caso dell’iPhone, ad esempio, poiché si tende a guardare verso lo schermo e non la fotocamera lo sguardo appare rivolto verso il basso, invece che “alla pari” con quello dell’interlocutore. Con la Beta 3 di iOS 13, ieri Apple ha portato una novità molto interessante in tal senso tra le opzioni: “FaceTime Attention Correction”.

Come si può vedere nelle comparative soprastanti caricate su Twitter da Will Sigmon durante una videochiamata con Mike Rundle, il sistema compensa automaticamente l’abbassamento degli occhi quando rivolti sullo schermo, riducendo in maniera sensibile la differenza rispetto a quando l’attenzione visiva è verso il sensore fotografico e permettendo di mantenere il contatto tra i partecipanti alla conversazione. Il tutto avviene in tempo reale, senza che gli utenti si accorgano di nulla o quasi: a prendersi il merito è ARKit, che crea all’istante una mappatura del volto individuandone i principali elementi, come gli occhi, ed apportando i correttivi. Il video sottostante illustra meglio il funzionamento di questa tecnica, con l’astina degli occhiali che deformandosi mostra il punto in cui viene applicato l’effetto.

Una miglioria davvero molto interessante, di quelle che in fondo ci si aspetterebbe arrivare proprio da Apple in primis. Purtroppo il bacino di potenziali beneficiari è alquanto ristretto: non basta disporre della Beta 3 di iOS 13 e aver attivato l’opzione di correzione, ma occorre avere anche un iPhone XR, XS/XS Max o un iPad Pro 2018. A detta di molti sviluppatori intervenuti sulla vicenda, il motivo risiede presumibilmente nel legame della funzionalità con la versione 3 di ARKit, che funziona solo in presenza combinata del SoC A12/A12X e della videocamera anteriore dotata della tecnologia TrueDepth per il rilevamento della profondità. Ciò esclude pure l’iPhone X, che ha la camera necessaria ma un processore di precedente generazione. Salvo “magie”, difficilmente questa feature verrà portata su tutti i dispositivi supportati da iOS 13. Non bisogna poi dimenticarsi che durante la fase Beta funzionalità possono arrivare e venire, pertanto bisognerà attenderne la conferma nel rilascio finale per avere certezze, anche se i buoni presupposti già dimostrati perorano senz’altro la causa per la sua permanenza.

Giovanni "il Razziatore"

Deputy - Ho a che fare con i computer da quando avevo 7 anni. Uso quotidianamente OS X dal 2011, ma non ho abbandonato Windows. Su mobile Android come principale e iOS su iPad. Scrivo su quasi tutto ciò che riguarda la tecnologia.

Commenti controllati Oltre a richiedere rispetto ed educazione, vi ricordiamo che tutti i commenti con un link entrano in coda di moderazione e possono passare diverse ore prima che un admin li attivi. Anche i punti senza uno spazio dopo possono essere considerati link causando lo stesso problema.