sabato 27 maggio 2017

Di chi sono i Big Data?

lastampa.it
enrico forzinetti

Nell’attesa di un intervento normativo sull proprietà intellettuale, le aziende si danno dei codici etici per il trattamento dei dati grezzi, fondamentali per lo sviluppo dell’intelligenza artificiale. Ne parla l’avvocato Tommaso Faelli, partner di BonelliErede



L’intelligenza artificiale non potrebbe esistere senza basarsi su una mole di dati grezzi. I cosiddetti big data vengono raccolti attraverso comportamenti online, scatole nere nelle auto, uso della carta di credito, utilizzo dei dispositivi indossabili, solo per citare alcuni esempi. Ma questi dati assumono valore soltanto una volta elaborati attraverso la statistica. Per arrivare a questo risultato ci sono molti attori in gioco.

C’è chi ha realizzato l’intelligenza artificiale, chi ha messo a punto la tecnologia, chi l’ha sfruttata, chi ha messo a disposizione un cloud per conservare le informazioni. Il nodo cruciale è capire se la proprietà intellettuale sul dato esista soltanto al termine del processo di analisi statistica o se intervenga già prima.

A CHI APPARTENGONO I DATI?
«Il diritto di proprietà intellettuale implica un beneficio economico indiretto. Se viene riconosciuto solo a partire da un certo punto, ne hanno un vantaggio soltanto coloro che stanno a valle - spiega Tommaso Faelli avvocato partner dello studio BonelliErede - La legge però deve essere equilibrata: sarebbe bello che tutti partecipassero alla catena di valore. Ma allargando troppo i benefici c’è anche il rischio di rallentare lo sviluppo economico».

La questione da risolvere è legata all’esistenza di una proprietà intellettuale sui dati grezzi. L’Unione europea ha avviato da qualche mese un dibattito su questo tema che porterà a un nuovo intervento normativo. Ma in attesa di nuove leggi le grandi aziende si stanno dotando di codici etici stringenti. Anche perché le persone sono diventate sempre più consapevoli del valore dei dati generati dal loro comportamento.

COME SI MUOVONO LE AZIENDE
«Le compagnie o utilizzano dati per la profilazione offrendo in cambio servizi gratuiti, oppure fanno pagare questi ultimi ma senza profilare gli utenti - prosegue Faelli, ospite del Wired Next Fest 2017 in corso a Milano - La tendenza è quella di rimanere all’interno di limiti molti rigidi, a volte più di quelli imposti dalla legge: per le aziende avere una precisa immagine conviene nel lungo periodo rispetto a comportamenti redditizi nell’immediato, ma poco etici».

In ogni caso deve poi venir rispettato un principio fondamentale: l’utilizzo legale di un dato può avvenire soltanto se l’utente ne è consapevole. «Le persone prima di accedere a un’app devono conoscere in maniera chiara come e quali dati vengono e verranno trattati per la loro profilazione - aggiunge Faelli- Non esiste alcun consenso implicito e le applicazioni devono essere anche graficamente semplici da comprendere. Questo lo prevede la legge»

LIMITI ALL’INTELLIGENZA ARTIFICIALE
C’è poi un discorso legato ai limiti imposti allo sviluppo dell’intelligenza artificiale attraverso la raccolta di questa mole di dati grezzi. Dati che sono fondamentali anche per la creazione di modelli statistici più efficienti in grado di restituire servizi migliori, come nel caso della sanità, oppure più convenienti, ad esempio nell’ambito commerciale.

Per questo motivo da una parte non si può pensare di imporre maglie troppo strette all’utilizzo di questi algoritmi: il rischio è frenare il benessere collettivo e lo sviluppo economico, che spesso si basano anche sull’imprevedibilità dei risultati e sull’incognita. Dall’altra servono però paletti ben precisi.

«Sono ad esempio vietate decisioni totalmente automatizzate e robotizzate per questioni con impatto sulla persona, come ad esempio l’accesso ai servizi fondamentali- conclude l’avvocato Faelli - In questi casi l’utente deve aver sempre la possibilità di parlare con un altro individuo per comprendere le decisioni di un algoritmo di non puntare su di lui perché considerato non conveniente».