Schegge di vangelo a cura di don Stefano Bimbi
San Luigi Maria Grignion di Montfort a cura di Ermes Dovico
INNOVAZIONE

Intelligenza artificiale, dal Garante un altolà opportuno

Ascolta la versione audio dell'articolo

Lo stop provvisorio a ChatGPT per tutelare la privacy degli utenti italiani è una decisione corretta: non si può fermare il progresso tecnologico ma va governato e reso trasparente nelle condizioni d'uso per tutelare i diritti fondamentali e la centralità della persona.

Cronaca 03_04_2023

Si può bloccare l’intelligenza artificiale (Ai)? È giusto porre dei limiti alle nuove frontiere dell’innovazione tecnologica? Sono gli interrogativi più ricorrenti nelle ultime ore, dopo che, con un provvedimento destinato a fare giurisprudenza, il Garante della privacy (Gdpr) ha imposto una limitazione provvisoria del trattamento dei dati personali di cittadini italiani ottenuti senza il loro consenso da OpenAI, la società proprietaria di ChatGPT.

Il provvedimento dell’Autorità italiana, prima al mondo ad aver preso una decisione simile, si basa su quattro motivi principali: mancata informativa sul trattamento dei dati; assenza di consenso per l'addestramento dell'algoritmo; risultati inesatti; assenza di un filtro per impedire a chi ha meno di 13 anni di accedere a ChatGPT. Se la startup statunitense non si adeguerà ai rilievi mossi dal Garante, rischia una sanzione fino a venti milioni di euro o fino al 4% del fatturato globale annuo.

La preoccupazione del Garante è legittima: frenare l’utilizzo selvaggio di dati da parte di quel chatbot, col rischio che la situazione sfugga di mano e il far west dell’ambiente digitale finisca fuori controllo.

Occorre che l’innovazione tecnologica cammini di pari passo con un’attenzione speciale ai diritti fondamentali e all’interesse generale. Invece l’intelligenza artificiale, se priva di argini, può ritorcersi contro l’uomo e compromettere lo sviluppo della sua personalità. ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, non è però l’unica intelligenza artificiale ad essere stata attenzionata dal Garante privacy italiano. È assai probabile che nelle prossime settimane possano esserci altre iniziative analoghe verso altre intelligenze artificiali generative che, partendo da istruzioni testuali, generano immagini.

D’altronde il panorama legislativo europeo è ancora lacunoso. Tarda ad arrivare il Regolamento Ue sull’intelligenza artificiale e non è stato ancora attuato il Data Governance Act, che detta regole sul riuso dei dati. Il Garante italiano della privacy non è l’unico ad essere preoccupato. Nel mondo dei tecnologi e dei futurologi si parla molto della lettera aperta con cui una lista di big del mondo tech, tra cui Elon Musk, chiede di sospendere per sei mesi gli ulteriori sviluppi dei sistemi di intelligenza artificiale, al fine di poter definire le regole e le condizioni del loro utilizzo.
Questa presa di posizione molto autorevole evidenzia come le criticità dell’intelligenza artificiale non siano da sottovalutare. Diventa indispensabile una discussione pubblica su questo tema perché l’utilizzo dell’Ai va a impattare sulla vita di tutti e sul benessere collettivo e non può diventare motivo di confronto esclusivo tra addetti ai lavori e rappresentanti del mondo delle tecnologie.

Frenare il progresso è un’utopia. Tentare di governarlo è il dovere del mondo industriale, delle istituzioni e dei legislatori, chiamati a conciliare innovazione tecnologica, tutela dei diritti e dimensione etica.
Vietare in maniera autoritaria la diffusione di strumenti come l’intelligenza artificiale limitando l’accesso ai dati vuol dire impoverire gli algoritmi e depotenziarne l’utilità in tutti quei processi che consentono di accrescere la qualità della vita delle persone. Si pensi ad esempio al settore della medicina preventiva, dove i benefici dell’Ai possono essere notevoli. Tuttavia, occorre mettere in guardia dagli abusi nel trattamento dati tutti coloro i quali pretenderebbero di utilizzarli senza le imprescindibili richieste di consenso e con tutte le adeguate informative previste dal Gdpr.

Occorre coltivare la trasparenza sulle condizioni d’uso delle nuove tecniche di intelligenza artificiale, rendendole accessibili agli utenti in maniera sicura e senza lati oscuri, promuovendo massicce campagne di sensibilizzazione sul valore dei dati e sulla necessità di proteggere l’identità digitale delle persone.
Se usati in maniera scorretta e anarchica, i chatbot possono diventare un formidabile strumento di supporto a disegni eversivi, che minano la sicurezza degli Stati, senza dimenticare il contributo che essi possono dare nelle strategie di manipolazione fondate su fake news, deepfake e altri strumenti di alterazione della verità.

Ecco perché la posizione del Garante della privacy italiana è coraggiosa e opportuna, perché non demonizza l’innovazione digitale ma ripropone un tema di bilanciamento tra difesa del progresso e tutela dei diritti fondamentali e della centralità della persona.