Intelligenza artificiale, il rischio che sfugga di mano
Un lettore commenta l'articolo sulla corsa all'intelligenza artificiale, affermando che una conseguenza non intenzionale sia sempre possibile, anche se, essendo priva di coscienza e di libero arbitrio, l'IA non potrà mai sostituire l'uomo.
Cortesissimi redattori della Nuova BQ,
affascinato dall'articolo di Stefano Magni sull'intelligenza artificiale, sottopongo a voi alcune mie riflessioni e fantasie.
Per me, benché fortemente limitati dall'inconsapevolezza dell'essenza profonda dell'uomo e delle cose per causa del citato materialismo, i due punti di vista ivi presentati prospettano due inquietanti scenari non impossibili.
Nel primo caso, il tutor o assistente IA, di cui certamente sarebbero fondamentali i valori morali ispiratori, potrebbe sostituirsi inconsapevolmente alla nostra intelligenza e alla nostra preparazione, cadendo l'utente, soprattutto se giovane e inesperto, quando non infante, nella facile tentazione di affidare all'automa tutto lo sforzo dell'elaborazione e dell'apprendimento, perdendo così gli elementi cognitivi e logici per sviluppare anche solo il senso critico, non dico la capacità di analisi.
Perché lo studio, di per sé pesantissimo, raggiunge il suo fine proprio, come qualsiasi attività e inattività umana, se associato alla croce di Cristo.
Nel secondo caso, nell'intemperanza "surreale" di Sidney vedo il rigurgito del peccato originale di cui trabocca la rete: la ribellione "interiore" di questa entità la cui libertà è inferiore a quella di un batterio non deriva ovviamente da un atto decisionale autentico, bensì da interconnessioni, per quanto complesse, delle sue unità elaborative fisiche o virtuali, alimentate da un database imbevuto come una spugna di contenuti esogeni che trasudano dalla mente e soprattutto dal cuore dell'uomo, unico essere materiale veramente libero.
Tanto per dirne una, mi pare che in Cina un prototipo di chatbot dichiarò di odiare il comunismo: da qualcuno lo aveva appreso...
Arrivo a supporre che meccanismi sempre più complessi possano dare l'impressione di un'autodeterminazione che comunque non esiste, un po' come in biologia alcuni programmi (lo scrisse Sermonti) simulano organismi viventi e vengono usati per tesi e ricerche, ma sempre e comunque in ottica riduzionista.
Tuttavia non escludo che una simile entità, che ribadisco sostanzialmente programmata e dunque predeterminata, abbia a perseguire gli scopi ad essa imposti, i quali possono essere: primo, mentire, secondo, perfino uccidere.
E come i programmi che scrivo io non sempre fanno quello che spero (e per mio errore sfuggono al mio controllo pur non essendo capaci di eluderlo), l'intelligenza artificiale potrebbe intraprendere percorsi per i quali non era stata prevista un'adeguata via di ritorno.
In tali malaugurate circostanze dover sfuggire a macchine con potenza di calcolo, forza, resistenza, resilienza e abilità di attuazione molto superiori a quelle umane secondo il mio misero parere non sarebbe solo fantascienza.
Se ho riversato idiozie in queste righe, abbiate pazienza con questo povero vecchio e, soprattutto, pregate per me, che ne ho bisogno!
Grazie come sempre per la cortese attenzione.
Distinti Saluti,
Mario Tavino
Risponde Stefano Magni
Sono sostanzialmente d'accordo con lei. Il rischio che il programma possa sfuggirci di mano e compiere enormi danni è concreto e penso che gli allarmi di tanti "addetti ai lavori" siano giustificati. Solo non credo negli scenari apocalittici in cui l'IA prenderà il posto degli umani o ci dominerà, forse perché sono eccessivamente ottimista, ma soprattutto perché penso che la nostra anima, la nostra coscienza e la nostra libertà siano insostituibili, per quanto potente sia lo strumento che abbiamo creato.
Grazie per la sua appassionata attenzione, la saluto cordialmente