Schegge di vangelo a cura di don Stefano Bimbi
San Sebastiano a cura di Ermes Dovico
La questione

Intelligenza artificiale, i segnali di un suo secondo inverno

Ascolta la versione audio dell'articolo

Oggi ci sono segnali secondo cui l’intelligenza artificiale potrebbe entrare in un suo secondo “inverno” di sviluppo. Un problema cruciale è la scarsità di dati di alta qualità. E prima ancora l’IA è incapace di astrarre, a differenza dell’intelletto umano.

Cultura 20_01_2025

Il progresso tecnologico dell’intelligenza artificiale (IA) ha dominato negli ultimi anni il dibattito pubblico, alimentato da promettenti dichiarazioni di scienziati e imprenditori che intravedono la possibilità di raggiungere la superintelligenza. Eppure, uno scenario diverso potrebbe attendere il futuro di questo settore: un nuovo "inverno", simile a quello vissuto tra il 1974 e il 1990, quando le aspettative smisurate portarono a una drastica riduzione dei finanziamenti e dell'interesse nella ricerca sull’IA. Per comprendere le ragioni di questa possibile svolta e prepararci alle implicazioni, è fondamentale analizzare i segnali attuali e le prospettive future del settore.

Il cosiddetto “inverno dell’IA” di allora fu il risultato di speranze irrealistiche nei confronti delle capacità delle macchine di comprendere il linguaggio naturale, risolvere problemi complessi e apprendere in maniera autonoma. Solo con l’avvento del Deep Learning e l’utilizzo dei Big Data nei primi anni Duemila, l’IA riuscì a riprendersi da quel periodo di stagnazione. Oggi, però, alcuni segnali indicano che il settore potrebbe trovarsi nuovamente sull’orlo di un rallentamento.

Un problema cruciale che si delinea è la crescente scarsità di dati di alta qualità per addestrare i modelli di IA. Questa scarsità non solo riduce l'efficacia degli algoritmi nel fornire risposte accurate, ma può anche portare a risultati distorti o non generalizzabili. Ad esempio, nei settori medici, la mancanza di dati rappresentativi potrebbe compromettere la capacità dell'IA di supportare diagnosi precise per pazienti con condizioni meno documentate. Nonostante l’apparente infinità di informazioni disponibili su Internet, queste risorse possiedono un limite. Ilya Sutskever, co-fondatore di OpenAI e figura di spicco nel campo del Deep Learning, ha recentemente sottolineato come i dati utilizzati per addestrare i modelli siano sempre più spesso derivati da altre intelligenze artificiali, piuttosto che da fonti primarie. Questo circolo vizioso rischia di compromettere la qualità dell'apprendimento automatico, in quanto i sistemi potrebbero limitarsi a rielaborare informazioni già “digerite”, anziché espandere effettivamente le proprie capacità.

Ray Kurzweil, nonostante sia uno dei più importanti transumanisti oggi viventi, sostiene che la tecnologia IA, a differenza di Internet e delle telecomunicazioni, progredisce secondo cicli più lunghi: due decenni di entusiasmo iniziale, seguiti da un decennio di delusione, infine un decennio e più di boom dovuto a scoperte innovative. Analizzando la storia recente dell'IA, abbiamo avuto un periodo di entusiasmo iniziale (1954-1974), la delusione dell'inverno IA (1974-1990), infine il boom che procede da allora. Quindi, secondo i calcoli di Kurzweil, noi ora saremmo verso la fine della fase del boom, che ha introdotto un nuovo entusiasmo che probabilmente sarà presto disilluso.

A complicare le cose, bisogna ricordare che i dati disponibili online sono spesso inquinati da errori, faziosità e disinformazione, e la crescente dipendenza da altri algoritmi per generare nuovi contenuti potrebbe amplificare questi problemi. A lungo termine, l’incapacità di accedere a dati freschi e affidabili potrebbe rallentare drasticamente lo sviluppo tecnologico nel campo.

Al di là delle difficoltà tecniche, vi è una barriera ancora più fondamentale che l’IA non potrà mai superare (e che i suoi promotori si rifiutano di approfondire seriamente): la sua incapacità di cogliere concetti universali e significati generali, un’operazione che l’intelletto umano compie per riconoscere quelle che in filosofia vengono chiamate "essenze", oltre che i principi comuni. L’intelletto umano, infatti, opera in tre fasi principali: astrazione, giudizio e ragionamento. Fin dalla tenera età, un bambino impara prima a riconoscere essenze universali (il concetto di "albero", per esempio), per poi utilizzarle nel giudicare ("l'albero è verde"), infine ragionare ("se l'albero è verde, allora è in salute"). L’IA, invece, segue il processo opposto: è stata sviluppata a partire dal ragionamento, si cerca oggi di affinarne il giudizio, ma non potrà mai accedere alla capacità di astrazione. Ecco la differenza!

Le macchine si basano su enormi quantità di dati preesistenti, che rielaborano per produrre risultati utili. Non sono capaci di “apprendere” nuove essenze o significati che non siano già in qualche modo presenti nei dati forniti. Questo limite è intrinseco alla loro natura, poiché mancano della componente spirituale e immateriale che caratterizza l’intelletto umano. Come insegna san Tommaso d’Aquino, l’intelligenza è profondamente legata alla dimensione dell’anima razionale, un dono che nessuna macchina potrà mai possedere. Questo limite filosofico ha implicazioni profonde, in particolare per coloro che temono che l’IA possa un giorno superare l’intelligenza umana e controllare l’umanità. Questi timori, spesso alimentati dai transumanisti, si basano sull’idea di una “singolarità tecnologica”: un punto di non ritorno in cui le macchine diventeranno autonome e supereranno le capacità umane.

Ma se l’IA non può astrarre, non può nemmeno raggiungere la vera intelligenza. Le macchine rimarranno strumenti, per quanto sofisticati, nelle mani dell’uomo. Esse potranno certamente accelerare i processi intellettuali, automatizzare compiti complessi e migliorare la vita quotidiana, ma non sostituiranno mai l’intelletto umano. Questo significa che il destino del mondo non dipenderà mai dalle macchine, ma dalla sapienza con cui l’uomo le utilizzerà. Tutto ricade, insomma, nelle nostre mani.

Di fronte a questi scenari, l’umanità deve considerare alcune verità fondamentali. Prima di tutto, è essenziale riconoscere che la tecnologia, per quanto avanzata, non potrà mai sostituire la dignità e il valore della persona umana. Questo richiama il nostro ruolo di custodi del creato: dobbiamo usare gli strumenti tecnologici per il bene di ciascuno, senza idolatrarli, ma neanche temerli o demonizzarli in maniera irrazionale. In secondo luogo, è importante promuovere una visione della tecnologia che sia radicata nella verità e nella giustizia. Per esempio, l’IA può essere impiegata in modo eticamente apprezzabile nel migliorare la diagnostica medica, facilitare la traduzione automatica per comunicare tra culture diverse, ottimizzare l’uso delle risorse agricole per ridurre lo spreco alimentare. Questi sono usi che chiunque può ben accogliere, poiché contribuiscono direttamente al bene comune.

A prescindere dall’effettivo avvento di un secondo inverno dell’IA, abbiamo di fronte l’opportunità per riflettere su ciò che davvero conta. In un mondo sempre più dominato dalla velocità e dalla complessità, la riscoperta della centralità dell’uomo, della sua intelligenza e della sua anima è un compito urgente.



TECNOLOGIA

Se l'intelligenza artificiale anticipa le nostre intenzioni

Se l'intelligenza artificiale capisse le nostre intenzioni e ci anticipasse nelle nostre scelte? Non è fantascienza, ma uno sviluppo già in atto. E corriamo realmente il rischio di farci sostituire anche nelle nostre scelte etiche.

CONFESSIONI DI EX DIPENDENTI

L'intelligenza artificiale di Google è un programma di indottrinamento

20_03_2024 Stefano Magni

La barzelletta del mese è quella di Gemini, il programma AI di Google che produce solo immagini di papesse e vichinghi afro. Non è un incidente, ma è voluto, come spiegano ex dipendenti a The Free Press.

linguisticamente corretto

Se l'intelligenza artificiale è istruita dalla censura umana

Alcune amministrazioni italiane sperimenteranno un algoritmo che ripulisce i testi da ogni sorta di linguaggio "non inclusivo". Al posto della conclamata neutralità c'è l'ideologia dei programmatori.