giovedì 8 dicembre 2016

Per ingannare la tecnologia di riconoscimento facciale bastano un paio di occhiali

La Stampa
carlo lavalle

Niente maschere, niente trucchi: l’Intelligenza Artificiale va in tilt con una montatura colorata


La montatura per occhiali usata nei test per impedire il riconoscimento facciale
Bastano un paio di semplici occhiali per ingannare un software di riconoscimento facciale. Come quelli realizzati dai ricercatori della Carnegie Mellon University che hanno illustrato l’efficacia di quanto sviluppato presentando la loro ricerca in occasione della conferenza per la sicurezza ACM CCS 2016 . Indossando questi occhiali, debitamente modificati per alterare la corretta lettura dei pixel dell’immagine, è possibile impedire a un sistema di riconoscimento facciale l’identificazione un individuo inducendolo all’errore, anche spingendolo a uno scambio di persona.

Un ricercatore, ad esempio, è riuscito a farsi passare per l’attrice Milla Jovovich. Una ricercatrice donna, invece, grazie agli occhiali, si è travestita digitalmente comparendo agli occhi del programma un maschio dai tratti medio-orientali. Ad esser presi di mira sono stati, in particolare, i software di riconoscimento facciale basati sulle reti neurali, dimostrando la loro vulnerabilità ad attacchi con l’utilizzo di accessori fisici, poco appariscenti per non destare nell’occhio.



“Con qualche piccola modifica – spiega Mahmood Shariff, coautore della ricerca - si possono ottenere normali occhiali da vista tartarugati”, in modo che chi li inforca possa passare inosservato senza attirare l’attenzione. In precedenza, per confondere la tecnologia di riconoscimento facciale si è ricorso a trucchi come la colorazione del viso e l’impiego di maschere. In Giappone, invece, Isao Echizen, docente presso l’Istituto Nazionale di Informatica, ha creato Privacy Visor , in vendita al prezzo di 240 dollari.

A questi stratagemmi, si aggiungono gli occhiali dei ricercatori della Carnegie Mellon University. Che, ottenuti spendendo pochi spiccioli, potrebbero essere particolarmente utili soprattutto quando la tecnologia di riconoscimento facciale smette di essere un sistema per garantire la sicurezza e diventa un mezzo che minaccia la privacy individuale.