Intelligenza artificiale e privacy: storia e prospettive di una relazione difficile | Web Agency Brescia
11131
post-template-default,single,single-post,postid-11131,single-format-standard,ajax_fade,page_not_loaded,,qode_grid_1300,footer_responsive_adv,qode-content-sidebar-responsive,qode-theme-ver-13.3,qode-theme-bridge,disabled_footer_bottom,wpb-js-composer js-comp-ver-6.2.0,vc_responsive

Intelligenza artificiale e privacy: storia e prospettive di una relazione difficile

Intelligenza artificiale e privacy: storia e prospettive di una relazione difficile

Intelligenza artificiale e privacy: storia e prospettive di una relazione difficile


Intelligenza Artificiale. Qualsiasi cosa si nasconda dietro questo termine spesso (ab)usato in campo tecnologico (e non solo), una cosa è certa: per funzionare, gli algoritmi e i sistemi che lavorano ispirandosi alle dinamiche di apprendimento e di elaborazione dell’intelligenza umana devono “nutrirsi” di dati, tanti dati. Già, ma da dove arriva tutta questa mole di informazioni, come viene gestita e soprattutto che tipo di impatto avrà sulla collettività?

Di questi e altri temi si è discusso durante l’incontro organizzato dalla cattedra di informatica giuridica dell’Università di Milano-Bicocca in collaborazione con ReD Open in occasione della Giornata europea della protezione dei dati personali. Una ricorrenza che ricade il 28 gennaio di ogni anno e coincide con l’anniversario – ieri il quarantesimo – di apertura alla firma della Convenzione 108 del Consiglio d’Europa per la protezione al trattamento automatizzato dei dati personali.

Durante l’incontro, il tema della tutela della privacy è stato analizzato in base alle sue declinazioni nelle più disparate categorie merceologiche: dalla sanità all’istruzione, passando per la biometria, la finanza, il marketing, l’ambiente, l’informazione e molti altri. Ma è sull’Intelligenza Artificiale che vogliamo soffermarci.

LE REGOLE SONO (QUASI) TUTTE DA SCRIVERE


Intelligenza artificiale e privacy: storia e prospettive di una relazione difficile

La premessa è d’obbligo: quella dell’intelligenza artificiale è una storia appena cominciata e che, anche per questo, ha confini operativi e normativi ancora piuttosto lassi. Per questo motivo gli interventi regolatori e legislativi si sono spesso concentrati sulla rimozione dei dati che violano la privacy dei soggetti coinvolti ma senza affrontare il problema in maniera organica e strutturata.

L’UE, tuttavia, ha comunque già tracciato le linee guida per provare a mettere ordine in questo quadro in costante evoluzione. Nel pacchetto di documenti approvato dall’Unione a febbraio dello scorso anno si fa esplicito riferimento a un impatto delle nuove tecnologie “ad alto rischio” per i valori dei cittadini, diritti fondamentali compresi.

In linea di massima si potrebbe dire che l’obiettivo dell’Europa sia quello di sfruttare tutte le potenzialità applicative dell’AI, comprese le discipline di machine learning e deep learning, minimizzandone al contempo i rischi. A questo scopo l’Europa sta lavorando su più binari paralleli: da un lato l’applicazione del framework esistente come regole di carattere generale e specifiche in alcuni ambiti, dall’altro prevedendo nuove norme integrative per la disciplina di alcune specifiche applicazioni di AI ad alto rischio. Nel mezzo tutta una serie di casi “indefiniti” che spesso vengono disciplinati attraverso la cosiddetta certificazione volontaria.

Va anche detto che le tecniche al momento note per garantire la privacy dei soggetti coinvolti come la privacy differenziale, una tecnica di anonimizzazione delle informazioni personali, possono essere applicate affinché i dati siano tutelati ma confliggono spesso con l’efficacia di tali sistemi. La svolta – hanno spiegato gli esperti intervenuti al Convegno dell’Università Bicocca – sarebbe conciliare il rispetto della privacy dei soggetti coinvolti con la funzionalità e la validità degli strumenti dalle elevate potenzialità.

I DUBBI SU MODEL INVERSION E RICONOSCIMENTO FACCIALE


Intelligenza artificiale e privacy: storia e prospettive di una relazione difficile

I sistemi di AI pongono però ulteriori problematiche. Come quelle relative al cosiddetto model inversion, la tecnica che sulla carta consentirebbe di effettuare cyber-attacchi ricostruendo i dati di allenamento a partire dai parametri del modello.

Tali attacchi stanno suscitando crescenti preoccupazione a livello di privacy, visto il crescente numero di archivi di modelli online.“Gli aggressori potrebbero ricostruire le immagini dei volti che un sistema FRT (Facial Recognition Technology) è stato addestrato a riconoscere”, si legge in un documento pubblicato dall’ICO, il garante britannico per la protezione dei dati personali. “I sistemi FRT sono spesso progettati per consentire a terzi di interrogare il modello. Quando al modello viene data l’immagine di una persona di cui riconosce il volto, il modello restituisce la sua migliore ipotesi sul nome della persona e il tasso di confidenza associato”.

Sul riconoscimento facciale, va detto, esistono le linee guida varate dal Consiglio d’Europa:

L’uso di tecnologie per il riconoscimento facciale per identificare le emozioni degli individui deve essere vietato perché pone gravi rischi, tra gli altri, nell’ambito del lavoro, dell’educazione, e anche nel sottoscrivere una assicurazione.

Il Consiglio ha specificato che è necessario avviare un dibattito pubblico sull’utilizzo del riconoscimento facciale nei luoghi pubblici e nelle scuole. L’Europa ha fatto chiaramente capire di essere contraria all’utilizzo di questa tecnologia nei centri commerciali, con finalità di marketing e nell’ambito della sicurezza privata. Anche le Forze dell’Ordine dovrebbero farne un uso morigerato per evitare di compromettere la sicurezza pubblica.

Nel migliore dei casi il riconoscimento facciale può essere conveniente, aiutandoci a navigare tra gli ostacoli della vita quotidiana, ma nel peggiore dei casi minaccia i nostri diritti fondamentali, dando alle autorità il potere di monitorare e controllare importanti aspetti della nostra vita spesso senza che noi ne siamo a conoscenza. Queste linee guida servono a bloccare questa possibilità, assicurando la protezione della dignità umana, dei diritti e la sicurezza dei dati personali degli individui. – Marija Pejcinovic Buric, segretario generale del Consiglio d’Europa.



IL FINE GIUSTIFICA I MEZZI?


Intelligenza artificiale e privacy: storia e prospettive di una relazione difficile

Al di là di queste problematiche molto dirette, il mondo delle tecnologie intelligenti presta il fianco anche a tutta una serie di interrogativi legati alle finalità di sfruttamento dei dati nella loro globalità, soprattutto in un orizzonte a medio e lungo termine.

L’approccio utilizzato dalle società che direttamente o indirettamente fanno profitto si è spesso concentrato sull’uso dei dati come strumento essenziale per migliorare la qualità del servizio, con un approccio che ricorda molto da vicino quello delle grandi multinazionali del software quando si tratta di condividere dati di diagnostica. Perché è evidente: dare il consenso al trattamento di un dato per una finalità legata alla risoluzione dei problemi è nel 99,9% dei casi più accettabile di un eventuale motivazione legata a finalità commerciali.

Il punto più critico riguarda però gli aspetti etici e l’orizzonte che potrebbe andare a delinearsi in alcuni ambiti della nostra vita, e in particolare in quello lavorativo. Ci si chiede: gli utenti sono davvero consapevoli di tutte le implicazioni che il consenso al trattamento dei propri dati personali per finalità di AI potrebbe avere nello sviluppo di attività in grado di rimpiazzare il lavoro umano?

Nella Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate si invitano gli Stati membri a valutare se le perdite di posti di lavoro derivanti dalla diffusione di tali tecnologie dovrebbero portare a politiche pubbliche adeguate quali la riduzione dell’orario di lavoro o l’eventuale riqualificazione del personale. E si sottolinea la necessità di delineare in modo univoco e condiviso le regole che riguardano l’intelligenza artificiale, la robotica e le tecnologie correlate, inclusi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie.

Fatta salva la legislazione settoriale, il Parlamento Europeo ritiene che un quadro normativo efficace e armonizzato basato sul diritto dell’Unione, sulla Carta e sul diritto internazionale in materia di diritti umani, applicabile in particolare alle tecnologie ad alto rischio, sia necessario al fine di stabilire norme uniformi in tutta l’Unione e proteggere efficacemente i valori dell’Unione.

L’Europa dei 27, inoltre, auspica che:

La Commissione integri un solido approccio etico nella prossima proposta legislativa che includa la sicurezza, la responsabilità e i diritti fondamentali, che massimizzi le opportunità e riduca al minimo i rischi legati alle tecnologie di IA; si attende che la proposta legislativa richiesta includa soluzioni politiche per i principali rischi riconosciuti dell’intelligenza artificiale tra cui, tra l’altro, la raccolta e l’uso etici dei Big Data, la questione della trasparenza algoritmica e delle distorsioni degli algoritmi; esorta la Commissione a elaborare criteri e indicatori per classificare le tecnologie dell’AI al fine di promuovere la trasparenza, la spiegabilità e la responsabilità, nonché di incentivare ulteriori precauzioni da parte degli sviluppatori; sottolinea la necessità di investire nell’integrazione di discipline non tecniche negli studi e le ricerche in materia di AI tenendo conto del contesto sociale.

Pare dunque chiaro che il difficile sarà individuare un approccio basato sul rischio e capace di agire trasversalmente su tutti i settori interessati. E farlo seguendo una metodologia basata sulla sicurezza, l’imparzialità e soprattutto la trasparenza. Perché è evidente: senza la fiducia degli utenti, il futuro delle applicazioni basate sull’intelligenza artificiale sarà tutt’altro che roseo.

No Comments

Post A Comment