***
Le nuove finalità dell’intelligenza artificiale
Pur non essendoci una definizione univoca sul punto, quando si parla di intelligenza artificiale, ci si riferisce a sistemi che consentono di riprodurre alcune delle funzioni del cervello umano, arrivando ad analizzare il proprio ambiente con un certo grado di autonomia, al fine di raggiungere obiettivi specifici.
Tutto ciò, generalmente, ha origine nel c.d. Internet of Things, che fa riferimento all’ insieme di oggetti con sistemi computerizzati al loro interno, in grado di interconnettersi tra loro e scambiare dati via internet. Tali oggetti sono ormai tutti di uso comune, dal telefono all’auto, dalle videocamere installate per motivi di sicurezza ai mezzi di trasporto noleggiati tramite app.
Ma cosa c’entra tutto ciò con la protezione dei dati personali? Come si può facilmente intuire, l’intelligenza artificiale si basa sui dati, ed il diritto alla protezione dei dati personali è nato proprio in seguito allo sviluppo delle potenzialità di elaborazione elettronica dei dati da parte dei computer, capaci di scoprire correlazioni e ricorrenze fino ad arrivare a conoscere il futuro delle persone, tramite previsioni specifiche e puntuali. È questa la forza dirompente dei dati personali, in un sistema in cui, chi li gestisce, è sicuramente considerato il maggior produttore della ricchezza di oggi.
Alla luce di queste considerazioni, non dovrebbe stupire il fatto che i dati personali siano stati definiti “il nuovo petrolio”[1], rappresentando la principale risorsa della nuova economia digitale.
L’intelligenza artificiale nella prospettiva del GDPR
Con l’entrata in vigore del Regolamento Europeo per la protezione dei dati personali[2], si ha un’aggiornata strutturazione dei rapporti tra intelligenza artificiale e protezione dei dati personali. L’obiettivo, per qualcuno quasi utopistico, è stato quello di assicurare una capacità di tutelare non solo i dati, ma i diritti e le libertà delle persone anche nel nuovo mondo dell’Artificial Intelligence. Pur non essendoci alcun riferimento espresso all’AI, il legislatore comunitario si è preoccupato di favorire lo sviluppo del mercato digitale europeo, il cui bene di scambio è costituito proprio dall’emersione dei dati personali, tutelando però allo stesso tempo la persona nei suoi diritti fondamentali[3]. Il principale riferimento di questo complicato equilibrio può essere rinvenuto nell’articolo 22[4] e nel Considerando 71 del GDPR, in cui, seppur con alcune eccezioni, si stabilisce un divieto generale di sottoporre l'interessato a processi decisionali automatizzati privi di un intervento umano, garantendo al contempo ad ognuno il diritto di conoscere la logica utilizzata all'interno del processo decisionale.
Senza la presunzione di voler entrare in profondità della questione, sicuramente meritevole di un ben maggiore approfondimento, il problema che ci si deve porre è se l'introduzione dell'AI e di autonomi sistemi, completamente indipendenti dall’intervento umano e che siano in grado di conservare ed elaborare dati, possano ritenersi legittimi nell'ambito delle attività di trattamento dei dati personali. Il rischio è chiaramente quello di una perdita di controllo da parte dell’essere umano, con conseguente incalcolabile lesione del diritto all’autodeterminazione informativa, che rappresenta la chiave di volta per essere liberi come singoli e nella collettività.
Etica digitale tra obiettivi e profili critici
A seguito dell’entrata in vigore del GDPR, nel 2018 il Consiglio d’ Europa ha rivisto la Convenzione 108 del 1981, per adeguarla ai nuovi principi del Regolamento. In tale contesto, il Comitato Consultivo che si occupa della protezione dei dati, ha adottato le proprie Linee-guida in materia di intelligenza artificiale e protezione dei dati personali[5] , prevedendo una serie di parametri che i governi, gli sviluppatori ed i fornitori di servizi AI dovrebbero adottare per garantire che non venga compromessa la dignità umana.
Tali Linee-Guida in particolare propugnano la necessità di effettuare valutazioni di impatto tutte le volte in cui ci possano essere conseguenze sui diritti e sulle libertà fondamentali di ogni individuo. Nella ricerca per un corretto bilanciamento tra sviluppo tecnologico e tutela dei dati personali, diventa centrale il tema dell’etica digitale, affinché gli strumenti utilizzati dall’AI siano prima di tutto legittimi e conformi ai principi fondamentali condivisi da ogni stato membro.
Considerazioni conclusive
Anche un sistema basato sull’etica digitale, tuttavia, potrebbe avere risvolti problematici. Considerando infatti i diversi contesti socio-culturali di ciascun paese di riferimento, non sarebbe difficile prospettare possibili divergenze sull’individuazione di quali principi vadano condivisi, e di quali invece, siano da ritenere secondari.
Alla luce di queste considerazioni, risulta condizione essenziale per un corretto utilizzo dei moderni sistemi di intelligenza artificiale, una condivisione internazionale di principi e valori, in grado di condurre gli sviluppi della tecnologia, senza tuttavia comprimere i diritti fondamentali della persona.
Riprendendo la valutazione di Stephen Hawking, secondo il quale “l’intelligenza artificiale sarà la cosa migliore o peggiore che sarà mai capitata all’umanità”, soltanto attraverso un uso della tecnologia al servizio dei diritti, e non viceversa, potremmo realizzare la più ottimistica di queste previsioni.
[1] Metafora coniata dal “The Economist”, The world’s most valuable resource is no longer oil, but data, pubblicato il 6 Maggio 2017.
[2] Regolamento Ue 2016/679, da ora in avanti “GDPR”.
[3] Per un maggiore approfondimento in materia, si veda F. PIZZETTI, Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli, 2018.
[4] Si riporta qui il testo del citato articolo: “1) L'interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona. 2) Il paragrafo 1 non si applica nel caso in cui la decisione: a) sia necessaria per la conclusione o l'esecuzione di un contratto tra l'interessato e un titolare del trattamento; b) sia autorizzata dal diritto dell'Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell'interessato; c) si basi sul consenso esplicito dell'interessato. 3)Nei casi di cui al paragrafo 2, lettere a) e c), il titolare del trattamento attua misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione”.
[5] Linee-guida adottate il 25 Gennaio 2019 e disponibili al seguente link: https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8.