Il minicomputer ibrido ha un cervello ma non l'anima
Ascolta la versione audio dell'articolo
Un chip elettronico e un organoide costituito da cellule neuronali con infinite potenzialità, anche lecite, a patto di ricordare che è sempre una macchina: la razionalità non è artificiale.
Un gruppo di ricerca guidato dal prof. Feng Guo, dell'Università Bloomington nell'Indiana, ha messo a punto un mini computer ibrido, composto da un chip elettronico e un organoide costituito da cellule neuronali. I risultati della ricerca sono stati pubblicati nell’articolo Brain organoid reservoir computing for artificial intelligence apparso sulla rivista scientifica Nature electronics. Nell’abstract possiamo leggere: «i chip di silicio ispirati al cervello sono ancora limitati nella loro capacità di imitare completamente la funzione cerebrale». Da qui l’idea di creare un «hardware di intelligenza artificiale che utilizza il calcolo del serbatoio adattivo delle reti neurali biologiche in un organoide cerebrale. In questo sistema, chiamato Brainoware, il calcolo viene eseguito inviando e ricevendo informazioni dall’organoide cerebrale. […] Illustriamo il potenziale pratico di questa tecnica utilizzandola per il riconoscimento vocale e la previsione di equazioni non lineari». In buona sostanza si tratta di un hardware composto in parte da elementi non organici e in parte organici.
Questa invenzione è moralmente lecita? Per rispondere occorre in modo preliminare ricordare che, affinchè l’esperimento sia eticamente lecito, è necessario che le cellule neuronali derivino da cellule staminali adulte e non embrionali. Nel secondo caso, infatti, il prelievo di queste cellule comporterebbe la morte dell’embrione e comunque la sua reificazione. Superato questo primo ostacolo, per dare risposta alla domanda di cui sopra è necessario rifarsi ai criteri di moralità di un’azione: fine prossimo, intenzione (ossia fini secondari) e circostanze. Per il caso qui in esame vengono in rilievo soprattutto il primo e ultimo criterio.
Qual è la finalità di questa ricerca? Dai ricercatori vengono indicati i seguenti scopi: un notevole risparmio energetico (il nostro cervello consuma in proporzione meno energia di quella consumata dai chip); la possibilità di aumentare il potenziale di calcolo e, in generale, di elaborazione dati con tutte le conseguenze positive che ciò comporta (anche in ambito sanitario); la conoscenza del metodo di apprendimento del cervello al fine di debellare alcune patologie neurodegenerative. Sono tutte finalità eticamente lecite.
Ciò che potrebbe far problema sono le condizioni in cui articola l’atto. In particolare una che riguarda la modalità d’azione. Spiega Tommaso d’Aquino: «un atto che parte da una buona intenzione può diventare illecito, se è sproporzionato al fine» (Summa Theologiae, II-II, q. 64, a. 7, c.). Si chiama in causa, dunque, il principio di proporzione o di efficacia. Detto in altri termini: affinché un’azione sia moralmente valida non è sufficiente perseguire un fine buono, ma occorre che l’azione che persegue quel fine non provochi più danni che benefici. E dunque sarà necessario soppesare i pro e i contra, ossia, più nello specifico, mettere sui piatti della bilancia la qualità degli effetti positivi e negativi, la quantità degli stessi e il grado di probabilità che gli uni e gli altri si verifichino.
Gli effetti positivi di questo esperimento li abbiamo appena elencati. Ma quali potrebbero essere invece gli effetti negativi? Vediamone qualcuno. In primis, se questi esperimenti usassero sempre maggiormente materia organica cerebrale, le persone sarebbero portare a credere, erroneamente, che quelle macchine siano persone. Infatti è opinione comune che, dal momento che gli esseri umani si distinguono dagli animali per la loro razionalità e che la sede della razionalità è nel cervello, laddove c’è cervello umano lì c’è persona. Ciò è errato. Sede della razionalità è nell’anima, realtà metafisica la cui esistenza si può provare razionalmente. Poi l’anima razionale usa anche del cervello per attuare le sue capacità razionali. È un po’ come il rapporto tra pianista e pianoforte. La capacità di suonare è nel pianista che usa del pianoforte per suonare, ossia per rendere attuale la sua capacità musicale. Senz’anima il cervello non potrebbe esprimere nessun pensiero. E dunque nessuna macchina, nemmeno quelle bioinformatiche, può pensare, perché il pensiero è legato alla libertà e all’astrazione, ossia alla capacità di trarsi fuori dal contingente, di prescindere dall’empirico. E le macchine, anche quelle composte da materia inorganica e organica, sono sempre fatte solo di materia. A differenza della persona umana che è sinolo di materia e spirito.
Un secondo effetto negativo si articolerebbe sia sul piano della ricerca che su quello culturale. Simili esperimenti se da un lato corrono il rischio di umanizzare le macchine, dall’altro corrono il rischio opposto: di reificare la persona. Gli esseri umani potrebbero essere visti come macchine, assai più perfezionate di quelle inorganiche, ma pur sempre macchine. Inoltre dalle cellule staminali adulte si potrebbe passare all’utilizzo di organi fetali e poi adulti per creare androidi sempre più sofisticati. Insomma si potrebbe usare la persona come magazzino di tessuti e organi utili per le sperimentazioni bioinformatiche. D’altronde già avviene per gli embrioni in altri settori.
Inoltre, a monte, è necessario domandarsi se gli effetti positivi ricercati non si possano ottenere tramite una soluzione più efficace, che quindi diminuisca la sproporzione tra benefici e danni (stato di necessità). La ricerca appare promettente e investe beni di alto pregio. Dunque si presenta almeno sullo stesso livello di altre ricerche in quanto al calcolo probabilistico costi-benefici.
Detto tutto ciò e stante la soddisfazione della premessa prima indicata, la presente ricerca appare moralmente lecita sia per i fini perseguiti che non sono di poco conto, posto che siano realisticamente realizzabili seppur nel lungo periodo, sia perché le conseguenze negative prima illustrate possono essere significativamente tamponate da una efficace azione culturale che miri a spiegare la differenza tra persona e macchina e l’intangibilità della prima, perché irriducibile a cosa.
Intelligenza artificiale, fra paure infondate e veri rischi
Il fronte dell’intelligenza artificiale conta un altro disertore eccellente. Geoffrey Hinton, ingegnere di alto livello di Google, rassegna le dimissioni segnalando i rischi che corriamo a causa dell'IA. Ma davvero un programma può diventare più intelligente dell'uomo? Il dibattito è antropologico.
Intelligenza artificiale: rischi per la privacy
«Alla infinita volontà di potenza della tecnica, deve porsi un indirizzo e un limite, etico e giuridico, a tutela della dignità della persona». Così il Garante della privacy nel corso dell'annuale relazione alla Camera.
Non si ferma la corsa all'intelligenza artificiale
Nel giorno in cui Google introduce in Europa la sua intelligenza artificiale Bard ed Elon Musk annuncia l'apertura di xAI, ci si interroga su rischi e opportunità. L'IA salverà il mondo o è il nuovo Frankenstein?
Il gregoriano mai abolito dal Concilio ritorna grazie all’AI
Latino sparito e canzonette in chiesa: il contrario di quanto chiedeva Sacrosanctum Concilium esattamente 60 anni fa. Ma la grande tradizione musicale e spirituale della Chiesa parla (e canta) tuttora, anche con l'aiuto della tecnologia.