Schegge di vangelo a cura di don Stefano Bimbi
San Colombano a cura di Ermes Dovico
l'allarme

Il Garante: «L'IA deve darsi dei limiti per non minacciare i diritti»

Ascolta la versione audio dell'articolo

«Occorre tracciare delle colonne d’Ercole da non varcare perché il progresso non divenga, paradossalmente, socialmente regressivo». L'allarme del Garante della privacy al Parlamento sull'intelligenza artificiale.

Politica 04_07_2024

Le tecnologie possono rivelarsi preziose per il benessere individuale e per la costruzione di una società migliore ma anche pericolosissime per i diritti fondamentali delle persone e delle comunità. Occorre guidare la trasformazione digitale senza cedere al determinismo tecnologico, mantenendo al centro l’uomo e la sua creatività. L’Intelligenza Artificiale è una minaccia in questo senso perché può scatenare conflitti e avvelenare i circuiti informativi con tante fake news. Inoltre vanno combattuti i processi mediatici, che imperversano sui media tradizionali a causa della pubblicazione disinvolta di intercettazioni che violano la privacy dei protagonisti e nulla aggiungono alla narrazione giornalistica.

Questi alcuni degli argomenti affrontati ieri dal Garante della Privacy in occasione della presentazione alla Camera dei Deputati della relazione annuale che traccia un bilancio delle attività svolte dall’Autorità garante per la protezione dei dati personali nel 2023 e delinea le prospettive future.

Il 2023 è stato l’anno della diffusione massiva dell’Intelligenza Artificiale con importanti interventi del Garante. Dopo un iniziale blocco di ChatGPT, per raccolta illecita di dati personali e assenza di sistemi per la verifica dell’età dei minori, la piattaforma è stata riaperta garantendo più trasparenza e più diritti agli utenti. Nel frattempo è stata costituita una task force ad hoc a livello europeo e sono in corso ulteriori verifiche dell’Autorità. Il Garante ha imposto lo stop anche al chatbot Replika per i troppi i rischi per i minori e le persone emotivamente fragili, ed ha avviato un’istruttoria su Sora, il modello di Intelligenza Artificiale che crea brevi video da poche righe di testo.

Ma nella Relazione del Presidente dell’Autorità, Pasquale Stanzione prevalgono i motivi di preoccupazione e di incertezza: «L’intelligenza artificiale - ha detto - è ormai entrata a far parte del nostro orizzonte quotidiano di vita e sempre più ne sarà elemento costitutivo, con effetti della cui portata (in senso lato antropologica) non siamo, forse, del tutto consapevoli».

Secondo Stanzione il vuoto di consapevolezza può essere colmato dal diritto, che su scala nazionale e internazionale deve fornire agli individui, alle imprese e agli Stati gli strumenti per contrastare i rischi di un uso indiscriminato e superficiale dell’algoritmo. Occorre cioè temperare con l’algoretica, vale a dire l’etica dell’algoritmo, gli eccessi dell’algocrazia.

In altri termini, l’innovazione tecnologica deve darsi dei limiti perché altrimenti può alimentare una spirale distruttiva, che si traduce ad esempio nelle guerre ibride. L’uso che si fa dell’AI negli scenari di guerra e in campo neuroscientifico può infatti ritorcersi contro l’uomo e comprometterne il primato sulla tecnologia.

«Occorre dunque tracciare – e questo è il compito principale della politica, ha puntualizzato il Garante - un limite di sostenibilità, delle colonne d’Ercole da non varcare perché il progresso non divenga, paradossalmente, socialmente regressivo».

Stanzione ha anche velatamente polemizzato con il Governo, tornando sull’opportunità che la sua Autorità venga coinvolta nelle attività di vigilanza e controllo sull’AI. «L’AI Act (il nuovo Regolamento europeo sull’Intelligenza Artificiale, n.d.r.) - ha detto -, nel delineare il sistema di governance dell’intelligenza artificiale, sancisce una specifica riserva di competenza in favore delle Autorità di protezione dei dati, in particolare in settori nei quali la potenza algoritmica rischia di amplificare la strutturale asimmetria del rapporto in cui si inscrive o le vulnerabilità proprie, per condizione soggettiva o circostanza, degli interessati – precisa il presidente – Ed è anche questa la ragione per cui l’individuazione nel Garante dell’Autorità competente per l’AI Act sarebbe la più coerente con l’incidenza, profonda e trasversale, dell’intelligenza artificiale, sui diritti fondamentali».

La privacy rimane dunque un valore inestimabile per i cittadini e va preservata, tanto più negli impieghi dell’AI, che possono rivelarsi invasivi in termini di profilazione e di violazione della riservatezza anche rispetto a dati sensibili come le condizioni di salute e le informazioni fiscali.

Last but not least il tema del rapporto tra privacy e informazione e quindi della inopportuna pubblicazione delle intercettazioni e del doveroso rispetto della riservatezza nell'era digitale. Le recenti modifiche legislative mirano a proteggere la riservatezza dei cittadini mentre bilanciano il diritto all'informazione con la necessità di evitare il gossip e il sensazionalismo mediatico. La sfida, secondo il Garante, sta nel trovare un punto di equilibrio che protegga la dignità personale e promuova al contempo la trasparenza democratica, assicurando ai cittadini notizie di interesse pubblico senza sbandierare ai quattro venti particolari di vita privata dei protagonisti dei fatti che nulla aggiungono alla completezza del racconto.

Tante le sfide, quindi, ma il diritto da solo non può farcela se, oltre ai legislatori, non saranno anche i decisori istituzionali, gli operatori tecnologici e del mondo dei media e tutti i soggetti del mondo della cultura e della formazione ad adoperarsi per costruire un ecosistema digitale democratico, inclusivo e rispettoso dei diritti fondamentali della persona.