Se l'intelligenza artificiale anticipa le nostre intenzioni
Ascolta la versione audio dell'articolo
Se l'intelligenza artificiale capisse le nostre intenzioni e ci anticipasse nelle nostre scelte? Non è fantascienza, ma uno sviluppo già in atto. E corriamo realmente il rischio di farci sostituire anche nelle nostre scelte etiche.
Caro Lettore, ma Lei lo sa che l’intelligenza artificiale (IA) già sapeva, prima che Lei lo avesse deciso, che oggi avrebbe letto la Bussola e probabilmente il presente articolo? Questo è il succo di un suggestivo articolo, firmato dai ricercatori di Cambridge Yaqub Chaudhary e Jonnie Penn, dal titolo Attenzione all'economia dell'intenzione: raccolta e mercificazione dell'intento tramite grandi modelli linguistici pubblicato il 30 dicembre scorso.
I due studiosi affermano che stiamo transitando dall’economia dell’attenzione all’economia dell’intenzione. In merito alla prima, è dato noto che i siti, i social, le chat, etc. registrano ciò che noi guardiamo, vediamo, acquistiamo e inviano questi big data alle aziende affinché con la pubblicità, gli articoli suggeriti, etc. orientino i nostri acquisti, forti delle conoscenze sui nostri gusti che loro posseggono. Ora è in atto un passettino successivo: l’IA prevederà le nostre intenzioni. Non si tratta più solo di osservare ciò che noi osserviamo, ma di interagire con noi per conoscerci meglio e anticipare le nostre mosse. E come fa l’IA ad interagire con noi? Con gli assistenti personali o assistenti digitali (smart assistant) – pensiamo all’assistente Google o ad Alexa o a Siri – e con gli chat bot, ossia software programmati per parlare con noi umani. Entrambi i sistemi registrano una quantità immensa di informazioni su di noi: scelte, preferenze e abitudini relative a stili di vita, consumi, interessi, stati emotivi, dove ci troviamo, chi incontriamo, cosa leggiamo, etc. Li registrano in modo accuratissimo e per lunghi periodi perché ci parliamo, interagiamo con loro in modo costante e per moltissimi fini. Insomma questi assistenti personali e le chat bot ci conoscono meglio di Facebook.
E arriviamo al punto: tutto questo bagaglio di conoscenze su di noi servirà all’IA per prevedere le nostre scelte e suggerirle a noi prima che le prendiamo: dal desiderio a ciò che vorremmo desiderare. L’articolo fa questo esempio in cui un assistente vocale così interagisce con l’utente: «Hai detto che ti senti oberato di lavoro, devo prenotarti quel biglietto del cinema di cui abbiamo parlato?». E perché fermarsi al cinema? Dialoghi possibili, da noi inventati, sono anche i seguenti: «Hai detto che sei stufo di tua moglie. Hai mai pensato ad una nuova vita senza di lei? Sei ancora giovane»; «Sei incinta, è il tuo secondo figlio, inoltre tu e il tuo compagno dovete ancora finire di pagare il mutuo. Hai mai preso in considerazione l’aborto? Se vuoi ti leggo qualche articolo sul tema».
Naturalmente il suggerimento non verrà tanto dall’IA, bensì dalle aziende o dai grandi gruppi di potere mediatico o politico che ci hanno venduto o regalato gli assistenti digitali i quali sono presenti nel nostro smartphone o in casa nostra. Se dunque un tempo i dati su di noi valevano oro, adesso ciò che ha valore sono le nostre intenzioni. «Queste aziende – aggiungono i due ricercatori – vendono già la nostra attenzione. Per ottenere un vantaggio commerciale, il passo logico successivo è usare la tecnologia, che stanno evidentemente già sviluppando, per prevedere le nostre intenzioni e vendere i nostri desideri prima ancora di aver compreso appieno quali siano».
Va da sé che, come si intuisce dagli esempi di cui sopra, il passo dal “suggerimento” alla “manipolazione” è brevissimo. I ricercatori della Leverhulme Centre for the Future of Intelligence (LCFI) di Cambridge parlano di «tecnologie persuasive», per dirla con un eufemismo. L’IA presente in queste tecnologie creerà con noi relazioni di fiducia e comprensione e così noi saremo persuasi a seguire i suoi suggerimenti. In sintesi: l’IA deciderà a posto nostro, anche se non ce ne accorgeremo. Dall’informazione, al suggerimento, alla modellazione della nostra coscienza e di quella collettiva.
I due studiosi al riguardo sono molto chiari: «tali strumenti sono già in fase di sviluppo per suscitare, dedurre, raccogliere, registrare, comprendere, prevedere e, in ultima analisi, manipolare, modulare e mercificare piani e scopi umani, sia banali (ad esempio, la scelta di un hotel) che profondi (ad esempio, la scelta di un candidato politico)».
Tutto questo non è futuro, ma presente. Gli sviluppatori di App Intents di Apple per la connessione delle app a Siri (l'assistente personale a comando vocale di Apple) hanno incluso nell’app protocolli per «prevedere le azioni che qualcuno potrebbe intraprendere in futuro [e] suggerire l'intenzione formulata dall'app».
Le ricadute di questo processo che dal predittivo sfocerà nel prescrittivo sono infinite. Anche in campo bioetico. Nel gennaio dello scorso anno sulla rivista scientifica The American Journal of Bioethics è stato pubblicato il seguente articolo: Un predittore personalizzato delle preferenze del paziente per i giudizi sostitutivi nell'assistenza sanitaria: tecnicamente fattibile ed eticamente auspicabile.
Che fare quando un paziente non è più capace di intendere e volere? Sì, ci sono le Dichiarazioni anticipate di trattamento (DAT). Ma se mancassero? E, anche se ci fossero, se fossero oscure, ambigue, lacunose? Sì, c’è la figura del fiduciario. Ma se anche lui mancasse oppure, se anche ci fosse, chi ci dice che sia attendibile nel descrivere la volontà del paziente? In modo analogo se pensiamo ai parenti. Ecco allora che viene in soccorso l’IA che, nel caso di specie, prende il nome di Predittore personalizzato delle preferenze del paziente: il modello 4P.
Gli autori dell’articolo appena citato propongono «di utilizzare l'apprendimento automatico per estrarre i valori o le preferenze dei pazienti da dati ottenuti a livello individuale e prodotti principalmente da loro stessi, in cui è probabile che le loro preferenze siano codificate (anche se solo implicitamente)». Per semplificare ed esemplificare: voi fate un incidente e finite in coma. I medici chiedono ad Alexa quale scelta voi avreste fatto in quel frangente. Inizialmente Alexa mette insieme tutte le vostre letture e video sul tema eutanasia a cui magari avete messo un bel like, nonché le conversazioni avute con lei o altri sempre su questo argomento. In seconda battuta confronta questo pacchetto di dati con il vostro temperamento un po’ umbratile e l’atteggiamento verso la vita non sempre solare così interpretati a motivo dei film, delle letture, degli interessi da voi coltivati, delle mail e post da voi scritti, delle foto di tramonti postate su Instagram, degli acquisti di capi di abbigliamento in stile gotico-crepuscolare su Amazon, di alcune frasi infelici di carattere leopardiano da voi scagliate contro il Cielo e dettate da uno sconforto passeggero. E così, infine, in un miliardesimo di secondo vi trovate in una bara perché lo ha deciso Alexa. O meglio: chi ha programmato Alexa. E poco importa se voi in quel frangente potevate anche decidere in modo difforme alle vostre precedenti decisioni dato che «le situazioni ipotetiche non riflettono necessariamente ciò che le persone scelgono in situazioni reali».
Leggendo entrambi gli articoli, allora comprendiamo che è in atto una involuzione antropologica: il virtuale inizialmente ci ha informato, poi ci ha aiutato e nel prossimo futuro ci sostituirà. Dall’informazione, all’aiuto, alla sostituzione. Infatti i ricercatori che hanno proposto il modello delle 4P affermano che l’IA diventerebbe «una sorta di "gemello psicologico digitale" della persona». La nostra libertà, già fortemente plagiata oggi in molti modi, sarebbe consegnata a chi manovra l’IA e quest’ultima sceglierebbe a posto nostro se andare al cinema, chi sposare e se staccare la spina. Conferiremmo delega piena all’IA perché nel percepito collettivo quest’ultima è super intelligente, neutra nei giudizi, oggettiva perché scevra da condizionamenti emotivi e da interessi personali. Il risultato sarebbe fatale: non saremmo più noi a vivere, ma un nostro Io virtuale.