Emozioni artificiali: anche i robot ridono
La tecnologia realizza automi sempre più simili a esseri umani, in grado di ridere e interagire (quasi) come faremmo con un amico. Innovazioni applicate in specifici ambiti della medicina, che però restano meri strumenti. Altri invece si spingono ben oltre...
L’intelligenza artificiale non conosce frontiere, ma a volte si concede una risata. Erica è il nome del robot umanoide, dall’aspetto di una donna, creato da Hiroshi Ishiguro, docente dell’Università di Kyoto. È stato addestrato a ridere da un gruppo di ricercatori dell’ateneo, che hanno descritto gli esperimenti in un dettagliato articolo apparso sulla rivista Frontiers in Robotics and AI.
L’addestramento di Erica si è svolto attraverso 82 sessioni di dialogo, di circa 10-15 minuti ciascuna, tra "lei" e vari interlocutori umani, nel corso delle quali gli algoritmi del robot hanno imparato a distinguere e interagire con più tipi di risate. Da quella cosiddetta “sociale”, tanto per rompere il ghiaccio o sciogliere l’imbarazzo, a quella “allegra”. E naturalmente ha imparato a fare la risata giusta nel momento giusto, per evitare qualche gaffe di quelle che accadono anche a noi umani. Ultima precisazione: poiché ha sembianze femminili, non bisogna mai chiamare Erica androide (che vale per i robot dall’aspetto maschile) bensì ginoide! Altrimenti potrebbe non ridere più, ma mostrare un’espressione offesa…
Abel è un robot utilizzato in ambito medico. Ha l’aspetto di un dodicenne androgino, nato dalla cooperazione tra il Centro di ricerca “Enrico Piaggio” di Pisa e la Biomimics di Londra. È un prodotto avanzato dell’affective computing, ovvero quella branca dell’intelligenza artificiale che mira al riconoscimento e alla creazione di emozioni. Abel non si lascia ingannare facilmente: si può fingere un’espressione, ma lui è in grado di rilevare anche altri segnali. Il suo compito è interagire con persone affette da disturbi comportamentali, demenza o Alzheimer, per comprenderne meglio le emozioni e le reazioni.
Il robot pisano-londinese potrà raccogliere dei dati utili al personale medico su pazienti che non sono in grado di esprimersi totalmente da sé. E lo fa con le sembianze di un dodicenne, poiché «gli studi – spiega il ricercatore Alessandro Greco – indicano che la connessione nonno-nipote è tra le più forti. Per un malato di Alzheimer è importante la socialità per evitare il deterioramento delle capacità cognitive». Dai mezzi più rudimentali alle innovazioni più recenti siamo tutti debitori dell’innovazione tecnologica applicata alla medicina – e tutti ben consapevoli che il medico “vero” non va confuso con lo strumento, poiché per quanto esteriormente umanizzato un automa ha pur sempre la stessa umanità di un bisturi o di una garza (o del robot che usiamo che pulire il pavimento).
Dettaglio non casuale, Abel è gender fluid e la sua immagine è stata volutamente plasmata su una serie di volti dall’aspetto androgino (tra cui il cantante David Bowie e l’attrice Tilda Swinton). «Questo tipo di approccio è fondamentale – spiega su Il Tirreno il ricercatore Lorenzo Cominelli – produce una tabula rasa. Lo puoi costruire partendo da una lavagna vuota. Non vogliamo che si crei un’attesa, così possiamo scandagliare tutte le possibilità d’interazione con una persona». Ma allora, ci chiediamo, perché realizzare un umanoide che interagisca col paziente (quasi) come un essere umano, e allo stesso tempo non voler influenzare il paziente presentandogli un aspetto maschile o femminile, ma preferendo la tabula rasa? Specie se invece lo si caratterizza deliberatamente e marcatamente su altri aspetti, per esempio l’età.
Tornando a Kyoto, oltre alla “ridente” Erica, Hiroshi Ishiguro si è creato un doppio robotico, perfetta immagine di sé stesso, occhiali inclusi. In tal caso occorre specificare che si parla di un geminoide, ovvero un robot “gemello”. In un’intervista del 2019, Ishiguro afferma chiaramente di voler «cambiare il mondo con la creazione di robot interattivi». Alla domanda se «tra mille anni gli uomini potranno essere robot» risponde affermativamente (precisando che «mille anni non bastano, ce ne vorranno diecimila») con un paragone (azzardato) tra le protesi applicate alle persone disabili e la possibilità di «rimpiazzare» in toto «i nostri corpi», non solo una gamba o un organo. O per rimpiazzare il vuoto demografico: «La nostra popolazione sta diminuendo di un terzo della sua dimensione attuale entro 50 anni. Quindi abbiamo bisogno di avere più robot».
Ishiguro immagina un futuro condiviso, spiegando che «in Giappone siamo molto aperti alla cultura robotica, non distinguiamo mai tra umano e robot». E perché il Giappone sarebbe più aperto? Lo spiega Osamu Sakura sulla rivista AI & Society: «È generalmente accettato che la visione della natura dell’Asia orientale, compresa quella giapponese, rappresentata dal taoismo, enfatizzi l'unità e la continuità della natura e degli esseri umani. Ciò contrasta con la visione giudaico-cristiana, che sottolinea le differenze tra i due». Del resto, nel 2010 un matrimonio giapponese ha già visto un robot come officiante. Mentre in Cina l’ingegner Zheng Jiajia non riusciva a trovare moglie per effetto della scarsità di donne cinesi legata alla “politica del figlio unico”. E come ha risolto? Ha sposato un robot.