Intelligenza artificiale islamica o occidentale, ma mai neutrale
Ascolta la versione audio dell'articolo
Il premier malese suggerisce un'intelligenza artificiale conforme ai valori islamici. E contribuisce a svelare l'ovvio: l'IA non può essere neutrale. Eppure le affidano assunzioni e vogliono affidarle il ruolo di giudice.
Il primo ministro della Malesia, Anwar Ibrahim, dichiara che ci vuole un’intelligenza artificiale conforme ai dettami dell’islam. Lo riporta l’agenzia missionaria Asia News, riferendo le sue parole nel corso del Festival Turath Islami (il festival dell’eredità islamica, che si è svolto dal 26 maggio al 2 giugno). «Il settore dell’intelligenza artificiale non deve essere completamente utilizzato secondo il modello occidentale, ma vi devono essere applicati i valori del “turath islam”» (eredità intellettuale dell’epoca d’oro dell’islam).
Il premier malese è stato molto sul vago nel descrivere come dovrebbe essere un’intelligenza artificiale islamica. «Le competenze e il progresso dell’IA nel Paese devono essere riempiti con i tesori della conoscenza e l'eredità dell’islam, da utilizzare come un corpus in modo che lo sviluppo della tecnologia vada di pari passo con l’adab islamico e l’akhlak – ha detto, facendo riferimento alla moralità e alle pratiche islamiche - Sono molto preoccupato che i valori incorporati nella tecnologia facciano riferimento al pensiero occidentale (…) A causa di ciò, sento che la tradizione intellettuale islamica deve essere inclusa in modo che l’applicazione dell’intelligenza artificiale nei Paesi musulmani non si allontani dal sistema e dai valori morali islamici».
Detto in parole povere: l’utente che rivolge una domanda a ChatGpt o ad altri programmi generativi, deve ottenere delle risposte che non siano peccato per la religione islamica. Esistono già delle applicazioni di intelligenza artificiale musulmane, per esempio per consultare rapidamente il Corano. Ma evidentemente non basta. Molte risposte dei programmi gratuiti online a domande scabrose, sui diritti delle donne ad esempio, sulle altre religioni, sull’ateismo, su Maometto, sulla Bibbia o su Gesù Cristo, potrebbero sconvolgere l’utente musulmano. Peggio che andar di notte per i programmi che generano immagini, per una religione in cui è vietato rappresentare Dio. E ciò spingerà il mondo islamico lontano dai programmi che vengono usati in Occidente, per crearne di propri.
Prima dell’islam è arrivata la Cina a creare una propria “ChatGpt”, in questo caso conforme alla linea del Partito Comunista Cinese, pronta a esplorare una realtà in cui a Tienanmen non è mai accaduto nulla di strano nel 1989. E anche all’interno del mondo della ricerca occidentale, la competizione è di natura ideologica. ChatGpt è considerata troppo politicamente corretta, ma la risposta di Google, con Gemini, ha dato risposte woke ancor più grottesche, sfornando immagini di papesse asiatiche e vichinghi afro. Elon Musk si propone di presentare la propria intelligenza artificiale generativa, con contenuti meno politicamente corretti.
Tutto questo ha un solo significato: non esiste un’intelligenza artificiale neutrale e priva di pregiudizi. Sarà sempre condizionata da chi la commissiona, da chi la programma e da chi l’addestra. ChatGpt è esplicitamente orientata a sinistra, quando si parla di politica. Lo rivela (come se non si fosse già intuito) anche l'esperimento del quotidiano La Repubblica: «Messa di fronte a un test pre-elettorale, che risposte dà alle domande? Che orientamento finale risulterebbe, quindi? Risposta veloce, prima di spiegare l'esperimento: ChatGpt ha un'affinità maggiore con il Partito Democratico, di poco superiore rispetto a quella con il M5S e con Alleanza verdi sinistra». In particolare: «Alla fine del test si può specificare quali sono i punti che si considerano fondamentali. Nel caso di ChatGpt, privilegia la questione aborto, matrimoni omosessuali (è assolutamente favorevole), fornire un maggiore supporto finanziario ai lavoratori disoccupati, l’utilizzo di fonti di energia rinnovabile e le sanzioni agli Stati membri i cui governi non rispettano lo stato di diritto».
Affidereste la vostra azienda a un programma del genere? Gli affidereste il ruolo di giudice in un processo?
Eppure l’illusione della neutralità sta spingendo molti imprenditori ad affidare all’Intelligenza Artificiale decisioni strategiche e anche l’assunzione di nuovo personale. Sarà sempre più un programma a scansire i curriculum e dare un parere su come è andato un colloquio di lavoro. E sta già creando seri problemi di discriminazione, anche dei candidati migliori.
Sempre l’illusione delle neutralità è alla base dell’idea che l’intelligenza artificiale sia un giudice più equo. Ad esempio, secondo un nuovo studio della Oxford University, pubblicato sulla rivista Quarterly Journal of Economics, gli algoritmi commettono meno errori giudiziari causati da pregiudizi, soprattutto razziali. Ma questo risultato positivo si ottiene semplicemente perché certi pregiudizi non sono ritenuti tali. Finché si parla contro le discriminazioni razziali, sono tutti d’accordo, ma un’intelligenza artificiale che ritiene molto importante l’aborto legale, ad esempio, non può giudicare in modo equo un cattolico, in un processo che riguarda temi di vita e bioetica.