mercoledì 12 ottobre 2016

Ladri, pirati e anche terroristi: svelata la vita occulta dei robot

La Stampa
noel sharkey, irakli beridze, odhran mccarthy
UNIVERSITY OF SHEFFIELD

C’è un lato oscuro dell’Intelligenza Artificiale e sta crescendo. Il problema è che mancano le contromisure, tecnologiche e legali



Siamo all’alba di una rivoluzione tecnologica nella quale robot di servizio guidati dall’Intelligenza Artificiale iniziano a svolgere molti dei lavori umani.

Solo nel 2014 sono stati venduti 5 milioni di robot autonomi in grado di portare a termine compiti sofisticati. Le applicazioni spaziano dalla medicina alla cura dei bambini e degli anziani, fino al cucinare e alla guida senza pilota. Dall’agricoltura alla pulizia della casa, dal sesso alla difesa. Ma che cosa comporta questa rivoluzione per i criminali e, in generale, per il mondo della criminalità?

Senza dubbio i robot di servizio offrono alle persone una lunga lista di benefici, ma così come ogni altra tecnologia presentano alcune «vulnerabilità» nei confronti di nuove forme di illegalità e reati e una serie di minacce alla sicurezza. I software sono suscettibili di uso fraudolento, manomissioni e violazioni, specialmente se connessi a Internet. Pensiamo ai nuovi robot per la sicurezza delle case: possono essere piratati per consentire l’identificazione della nostra abitazione e depositarne le chiavi nella cassetta della posta di qualcun altro.

Oggi, nel mondo, un numero crescente di agenzie e forze dell’ordine inizia ad avvalersi di robot per la sorveglianza, con sviluppi che arrivano al controllo delle frontiere e delle manifestazioni di protesta. I robot vengono sempre più armati con spray al peperoncino e «taser». Ma in parallelo a questi sviluppi cresce la possibilità che i criminali, o peggio i gruppi terroristici, possano appropriarsi di queste tecnologie, rivolgendole contro chi le usa.

I campanelli d’allarme stanno suonando: gli hacker hanno dimostrato come si possa assumere il controllo dei veicoli. Le auto sono dotate da 40 a 50 mini-computer che controllano molte funzioni: la sterzata, la frenata, l’accelerazione, l’accensione delle luci. L’Fbi ha messo in guardia sulla vulnerabilità dei veicoli rispetto al controllo in remoto con un tablet o un cellulare, connessi tramite Usb, Bluetooth o wifi.

Con tecnologie che consentono la guida senza pilota di auto, camion e macchinari per l’agricoltura si presenta un ampio ventaglio di opportunità criminali. Consideriamo il caso di un veicolo senza guidatore che viene piratato, caricato di esplosivi e istruito per raggiungere una destinazione prestabilita. Opportunità simili si spalancano attraverso i servizi di consegna con i droni. Ancora peggio, poi, se i droni vengono modificati da organizzazioni terroristiche per disperdere sostanze tossiche, biologiche e nucleari o «bombe sporche».

Oggi costruire un robot non è più così dispendioso, senza contare che le componenti sono disponibili su Internet. Non è più necessario essere esperti: un appassionato può costruire un robot monouso programmato per fini illeciti. Se non ci si preoccupa, quindi, di predisporre specifici parametri di sicurezza, è relativamente semplice produrre copie grezze di dispositivi militari o delle forze dell’ordine.

Robot a parte, sono disponibili piattaforme adattabili a tanti fini illeciti, che spaziano dall’evitare la sorveglianza delle forze dell’ordine allo spionaggio degli individui, dai furti di proprietà intellettuale agli atti di vandalismo e agli attacchi terroristici. Anche i cartelli della droga si sono già avvalsi di robot per condurre le loro operazioni. Nel 2010 le autorità americane hanno emesso le prime condanne in seguito alla costruzione di sottomarini controllati a distanza e usati per il narcotraffico.

Intanto il rischio di un’invasione nella sfera privata è un altro aspetto che genera preoccupazioni: con la proliferazione dei robot nelle case e nei luoghi di lavoro cresce la possibilità che i criminali accedano a informazioni sensibili. Molti robot domestici sono progettati per compiere semplici operazioni su Internet e questa capacità ne limita la sicurezza, al punto che perfino un aspirapolvere «smart» potrebbe essere manipolato per rubare immagini dei proprietari nell’intimità casalinga.

Mentre le tecnologie evolvono verso livelli sempre più elevati di autonomia, non solo aumentano i rischi di uno sfruttamento criminale, ma la confusione sull’attribuzione delle responsabilità. Un robot, per esempio, acquista prodotti illegali nel Darknet e questi vengono consegnati al proprietario del robot stesso. Chi detiene la responsabilità legale? Il robot? Il proprietario? O il produttore? Una situazione simile si è verificata già nel 2014, quando un’applicazione di acquisti online comprò una partita di merci contraffatte.

Ora che la rivoluzione tecnologica modifica i modi in cui viviamo è essenziale pensare non solo agli aspetti positivi dell’Intelligenza Artificiale, ma ai rischi associati e alle sfide che comportano. Crimine e sicurezza rappresentano un’area-chiave, sebbene questa non sia l’unica: i progressi implicano problemi di tipo economico, ambientale, legale e politico e questi devono essere ancora compresi nella loro reale dimensione. Non a caso, nel 2015, l’Istituto Interregionale dell’Onu per la Ricerca sul Crimine e la Giustizia (l’Unicri) ha avviato una discussione a livello internazionale per promuovere l’analisi di questi rischi: il risultato è un programma sulla robotica e sull'Intelligenza Artificiale che prevede una rete mondiale di rappresentanti della comunità scientifica, dei governi e del settore privato.