Le reti neurali messe da Apple sugli iDevice al servizio del riconoscimento dei volti

Se avete pensato a Face ID, stavolta non siete sulla strada giusta: si parla sì di riconoscimento dei volti, ma nelle foto. È un procedimento molto complesso, su cui tutti i big del settore tecnologico hanno fatto importanti passi avanti e continuano a farne. Apple ha iniziato a spingere su tale funzionalità a partire da iOS 10, permettendo così la creazione di tag e album automatici in base alle persone riconosciute. Più facile a dirsi che a farsi, essendo un procedimento parecchio complesso e nel caso dell’azienda di Cupertino complicato anche dalla sua stessa buona politica di privacy, che prevede la massima protezione per i dati personali dell’utente. L’uso di un meccanismo server-side non era compatibile con tali premesse, il che ha portato Apple a prevedere la formazione di reti neurali direttamente sui dispositivi, in locale. Una sfida importante, ottimizzando il più possibile le prestazioni al fine di non inficiare troppo sul resto del sistema operativo. Per quanto sia una tematica affascinante, risulta anche estremamente tecnica da affrontare in questa sede, motivo per cui abbiamo optato per segnalarla tramite un LiNK, rimandando i più interessati al corposo approfondimento pubblicato sul blog ufficiale Apple dedicato al Machine Learning.

Giovanni "il Razziatore"

Deputy - Ho a che fare con i computer da quando avevo 7 anni. Uso quotidianamente OS X dal 2011, ma non ho abbandonato Windows. Su mobile Android come principale e iOS su iPad. Scrivo su quasi tutto ciò che riguarda la tecnologia.

Commenti controllati Oltre a richiedere rispetto ed educazione, vi ricordiamo che tutti i commenti con un link entrano in coda di moderazione e possono passare diverse ore prima che un admin li attivi. Anche i punti senza uno spazio dopo possono essere considerati link causando lo stesso problema.