Schegge di vangelo a cura di don Stefano Bimbi
Sant’Apollinare a cura di Ermes Dovico
MUSK E PECHINO

Intelligenza Artificiale: prodotto umano, troppo umano

Ascolta la versione audio dell'articolo

L’intelligenza artificiale è un pericolo? È un’opportunità? La domanda che dovremmo porci, prima di tutto, è un’altra: è veramente “artificiale”? Il quesito si impone dopo l’ultima intervista rilasciata da Elon Musk e dopo la pubblicazione, in Cina, del regolamento sull'intelligenza artificiale generativa. 

Editoriali 20_04_2023
Presentazione di Ernie Bot

L’intelligenza artificiale è un pericolo? È un’opportunità? La domanda che dovremmo porci, prima di tutto, è un’altra: è veramente “artificiale”? Il quesito si impone dopo l’ultima intervista rilasciata da Elon Musk al programma di Tucker Carlson su Fox News e dopo la pubblicazione, in Cina, di un nuovo regolamento per i software di intelligenza artificiale generativa.

Problema: fai una domanda qualsiasi, detti le caratteristiche del testo e Chat GPT ti scrive tutto lo scibile umano su quel che le hai chiesto. Ma siamo sicuri che dica la verità? Tutti i dati li reperisce sul Web, ma con quali criteri li assembla? Per questo deve essere “addestrata”, in soldoni programmata, visto che si tratta pur sempre di un programma, per quanto possa apparire complesso quasi quanto una mente umana. Chi programma, detta le regole.

Elon Musk, Ceo di Space X, Tesla e Twitter, prima di tutto, è entrato a gamba tesa nel dibattito con la sua lettera aperta, scritta assieme a Steve Wozniak (co-fondatore di Apple) e ad altri esperti del settore, sottolineando tutti i pericoli dell’intelligenza artificiale (ne avevamo parlato su queste colonne). Nella sua intervista su Fox, Musk rincara la dose: il vero problema, a suo dire, è che i programmatori “hanno addestrato ChatGPT per commentare su alcune cose e non su altre. E a mentire, a volte, a non dirci ciò che i dati reali potrebbero dirci”. Chat GPT è molto politicamente corretta ed anche abbastanza politicizzata. Giusto per fare un paio di esperimenti, quando tornerà disponibile in Italia, provate a chiederle aggettivi per descrivere positivamente Joe Biden e altri per descrivere positivamente Donald Trump. Le risposte potete già intuirle. Musk è parte in causa perché ha partecipato, con fior di investimenti, alla nascita di OpenAI, la casa produttrice.

Ora spiega che “L’obiettivo, il concept, era essere un contrappeso, un’alternativa a Google. Ma poi mi sono interessato ad altro. E il risultato è che ora loro sono “closed source” e sono diventati un’organizzazione a scopo di lucro. E sono alleati di Microsoft. In effetti, Microsoft oggi ha una forte influenza, forse li controlla direttamente. Quindi ci troviamo con una situazione dove da un lato c’è Microsoft con OpenAI e dall’altra Google con Deep Mind … Insomma, due pesi massimi che dominano”. Il duopolio di Microsoft e Google condiziona, ovviamente, anche l’ideologia. Secondo Musk, ChatGPT “è stata addestrata per essere politically correct, che molto semplicemente non è il modo di dire la verità”.

Lo stesso problema è ancora più evidente in Cina, dove Chat GPT e altri software concorrenti americani sono vietati (e non perché hanno un Garante della privacy anche a Pechino, ma per motivi squisitamente ideologici e rivalità economica). La prima risposta della Repubblica Popolare è Ernie Bot e per ora è una delusione. Basti pensare che, a marzo, dopo la sua presentazione, il motore di ricerca internet Baidu che l’ha sviluppata ha perso il 6,4% alla Borsa di Hong Kong, bruciando 3 miliardi di dollari. Alibaba, il colosso delle vendite online, risposta cinese ad Amazon, sta elaborando la sua chatbot. E promette di realizzare un prodotto più raffinato.

Ma il regime ha dato l'altolà. L’11 aprile è stata pubblicata una prima bozza di legge che regolamenta le future intelligenze artificiali. La nuova norma afferma che agli utenti cinesi, le piattaforme di IA devono fornire contenuti che “riflettano i valori fondamentali del socialismo, che non contengano concetti che implicano la sovversione del potere statale, il rovesciamento del sistema socialista, l’incitazione alla secessione dal Paese, l’indebolimento dell’unità nazionale, che promuovano il terrorismo, l’estremismo, l’odio etnico, la discriminazione etnica, la violenza, l’oscenità, la pornografia, le informazioni false, o concetti che disturbino l’ordine economico e sociale”. Insomma, non puoi chiedere alla versione cinese di Chat GPT cosa sia successo a Tienanmen nel 1989. Se invece chiedi se sia giusta una dichiarazione di indipendenza di Taiwan o la secessione del Tibet, ti deve rispondere con un pamphlet di propaganda comunista cinese (e poi chiamare la polizia, magari).

Dall’intervista a Musk e dalla risposta cinese a Chat GPT si deduce, dunque, quanto i contenuti generati da un software siano ancora un prodotto umano. Troppo umano. E sicuramente non imparziali, tantomeno “superiori” a ciò che potrebbe essere prodotto da un autore in carne ed ossa. Il pericolo non è quello del computer che si sostituisce improvvisamente all’uomo. Solo una persona molto materialista può pensare che la mente umana possa essere battuta da una macchina e che sia solo una questione di potenza di calcolo. Chat GPT e prodotti concorrenti sono strumenti nelle nostre mani, non va mai dimenticato. Li possiamo usare per fare rapidamente ricerche su ogni argomento, per aiutarci ad elaborare qualsia cosa, dall’analisi alla programmazione informatica. Il pericolo vero è quando qualcuno (umano) crede di poter sostituire l’uomo con l’intelligenza artificiale. Soprattutto quando crede di affidarle un pensiero o, peggio ancora, un ruolo decisionale. Perché a quel punto non lo sta affidando a una mente superiore, ma a Microsoft, o a Google, o al regime di Pechino, ciascuno con i suoi pregiudizi ideologici. La sfida del futuro è nel non cadere in questa tentazione.