Intelligenza artificiale: il monito di Musk e Wozniak
Ascolta la versione audio dell'articolo
Rischio o opportunità? L'intelligenza artificiale è stata concepita per aiutare l'uomo. Ma lo sviluppo di intelligenze artificiali sempre più potenti rischia di mettere a rischio la stessa esistenza umana. È l'allarme lanciato da un migliaio di esperti nel settore.
- VIDEO: UNA TECNOCRAZIA DEGLI ALGORITMI, di Riccardo Cascioli
Elon Musk Ceo di Tesla, Twitter e Starlink, Steve Wozniak che è il co-fondatore di Apple, insieme ad un migliaio di esperti e docenti di ingegneria artificiale di tutto il mondo, Ceo di aziende informatiche dedite all’innovazione tecnologica hanno chiesto, con una lettera aperta pubblicata ieri mattina 29 marzo sul sito del ‘Future of Life Institute’, una pausa di riflessione sui "giganteschi esperimenti di intelligenza artificiale", visto come la competizione degli ultimi mesi abbia portato ad una corsa pericolosa per l’umanità ed il mondo che conosciamo. Insomma, un grande stop al ‘far west’’ che potrebbe travolgerci tutti.
Nella lettera si sostiene la necessità di sviluppare protocolli di sicurezza da parte di supervisori indipendenti alle aziende ed ai centri di ricerca che possano guidare lo sviluppo futuro dei sistemi di IA. "I potenti sistemi di IA dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili", si legge nella lettera, ricordando come la ‘Politica’, coloro che sono rappresentanti del popolo, deve essere protagonista assoluta nella elaborazione, con gli esperti, delle regole e dei protocolli per lo sviluppo e controllo dell'Intelligenza Artificiale. I firmatari della lettera avvertono anche che in questa fase nessuno "può capire, prevedere o controllare in modo affidabile" i nuovi potenti strumenti sviluppati nei laboratori di IA, tra cui, ci potrebbero essere quelli di “propaganda e delle bugie diffuse attraverso articoli generati dai software che sembrano reali e persino la possibilità che programmi possano sostituire i lavoratori in moltissimi campi e rendere obsoleti gli esseri umani e i posti di lavoro”.
L’auspicio è che laboratori di IA e gli esperti indipendenti possano utilizzare questa pausa di 6 mesi per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di intelligenze artificiali avanzate, rigorosamente controllate e supervisionate da esperti esterni indipendenti e "parallelamente, gli sviluppatori devono lavorare con i politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance". Oltre ad Elon Musk e Steve Wozniak, tra i firmatari troviamo l'amministratore delegato di Stability AI Emad Mostaque, i ricercatori di DeepMind, società di proprietà di Alphabet, i maggiori esperti Stuart Russell, professore di Computer Science all'Università Berkeley e Yoshua Bengio, Professore di ingegneria informatica, all'Università of Montreal.
Tutti sottolineano che il passo indietro richiesto con la lettera può impedire la pericolosa “corsa verso modelli black-box imprevedibili e sempre più grandi con capacità emergenti" e che, per dirla con le parole di Elon Musk riportate nei titoli dei mass media mondiali, metterebbero a “rischio l’umanità”. Da quando è stato reso pubblico l'anno scorso, ChatGPT di OpenAI, sostenuto da Microsoft, ha spinto i rivali ad accelerare lo sviluppo di modelli linguistici simili e le aziende a integrare modelli di IA generativa nei loro prodotti. GPT-4 è l'ultimo modello di apprendimento profondo di OpenAI, reso disponibile lo scorso 14 Marzo, un “modello multimodale di grandi dimensioni (che accetta input di immagini e testo, emettendo output di testo in moltissime lingue) e che mostra prestazioni di livello umano in “varie tipologie professionali e accademiche", secondo le informazioni fornite dagli sviluppatori. Tra i firmatari della lettera aperta pubblicata ieri non c’è Sam Altman che è il Ceo di OpenAI e che pure a metà marzo aveva confessato alla rete televisiva americana ABC di essere "un po' spaventato" dalla sua creazione se venisse usata per "disinformazione su larga scala o attacchi informatici".
Preoccupazioni ma anche ambizioni e superbie si accavallano se è vero che per lo stesso Altman, lo sviluppo della piattaforma “ChatGPT-4 è solo un passo avanti verso l'obiettivo di OpenAI di costruire un'Intelligenza Generale Artificiale, ovvero quando l'intelligenza artificiale supera una soglia di potenza che potrebbe essere descritta come sistemi di IA generalmente più intelligenti degli esseri umani”. Proprio ciò che temono i firmatari della lettera di ieri.
Non facciamoci illusioni, la diffusione di queste piattaforme ha e avrà un impatto impressionante, pensate che l'applicazione ChatGPT di OpenAI, resa disponibile dalla fine di novembre scorso, ha già raggiunto i 100 milioni di utenti attivi mensili in pochi mesi, una diffusione infinitamente più veloce di qualsiasi social media, secondo uno studio pubblicato dalla Reuters. Opportunità e rischi condivisi anche da Bill Gates che, nei giorni scorsi, ha voluto pubblicare, il 21 marzo, la propria riflessione sulla sfida della IA (“L’era della IA è iniziata”). Gates esalta le potenzialità e l’aiuto reale che l’intelligenza artificiale può fornire all’umanità, nel campo della produttività, nella soluzione di problemi ma, non sottace i pericoli attuali e futuri di piattaforme IA fuori controllo nelle mani di potenze o personalità dedite alla disinformazione o al caos per fini politici o speculativi e, ancor più, di ulteriori sviluppi della IA, super-intelligenze indipendenti, in grado di stabilire i propri obiettivi in modo autonomo, a scapito della stessa umanità. Ben hanno fatto Elon Musk e gli altri esperti a lanciare l’allarme di ieri: l’intelligenza artificiale è una grande opportunità carica di rischi, l’umanità è in grado di coglierla o ne rimarrà travolta? Facciamo memoria del ‘peccato originale’ e della presuntuosa ‘Torre di Babele’ prima di gettarci nell’abisso…