Il robot lo sa che tu sai che lui sa

Share on facebook
Share on twitter
Share on linkedin

Un esperimento statunitense ha provato l’esistenza di una scintilla d’empatia fra due macchine. Anche le intelligenze artificiali potrebbero sviluppare un’embrionale teoria della mente

Alle prestazioni dei robot e in generale ai risultati da record delle intelligenze artificiali siamo abituati ormai da qualche tempo. Proprio qualche mese fa la Boston Dynamics, che è un po’ la Apple degli automi, ha stupito con un clamoroso balletto delle sue più avanzate creature fra cui il “cane-robot” Spot. E la piattaforma AlphaGo di Google, aggiornata anni fa alla versione AlphaGo Zero in grado di imparare studiando le sue stesse mosse, colleziona da tempo vittorie su vittorie nel tradizionale gioco “Go” e in altre competizioni contro avversari in carne e ossa.
Invece tutto quello che riguarda la sterminata zona grigia delle sensazioni e delle abilità umane rimane un territorio a dir poco impervio per i cervelli artificiali. A meno di non voler ripescare qualche sollecitazione da cinefili alla Uomo bicentenario, pur sempre uscito nelle sale 22 anni fa. Adesso sembra che un piccolo ma fondamentale passo in questa direzione sia stato compiuto e lo si deve a un esperimento della Columbia University di New York. Il team, guidato da Hod Lipson, testimonierebbe – secondo i più entusiasti – la capacità di alcune intelligenze artificiali di innescare la scintilla dell’empatia. Per dirla in termini scientificamente più solidi, di sviluppare una teoria della mente. Cioè una teoria della capacità di mentalizzare, ossia di sapere che io so che tu sai che io so (una capacità tipica degli esseri umani e, secondo alcune ricerche, anche dei primati non umani, almeno a un certo livello di complessità e modularità). Si tratta della capacità di utilizzare le informazioni raccolte, anche sulla base dell’esempio e dell’esperienza, per prevedere le mosse. Con un abbozzo di logica strategica. Spesso gli esperti la abbreviano in “ToM” e la definiscono, secondo la formulazione del 1978 di David Premach e Guy Woodruff, come la capacità di attribuire stati mentali – credenze, intenzioni, sensazioni, desideri, emozioni, conoscenze – a sé stessi e agli altri e di comprendere che gli altri hanno stati mentali diversi dai propri. Senza questa sensibilità, siamo sostanzialmente fuori dalla società. Alcune patologie, del resto, sono state collegate proprio a un deficit in questo genere di capacità: basti pensare ai disturbi dello spettro autistico o alla schizofrenia. Nell’esperimento statunitense è successo l’impensabile. Due robot avevano il compito di raggiungere dei cerchi verdi disegnati sul pavimento. Nel perimetro in cui erano collocati i bersagli, però, erano stati dislocati anche degli ostacoli che ne oscuravano alcuni, rendendo i percorsi più complessi e accidentati. È accaduto che uno dei due robot, collocato in una posizione sopraelevata e in grado di vedere senza ingombri l’intero campo di azione, osservando i comportamenti dell’altro sia riuscito a prevederli. A replicare cioè, in modo davvero molto semplicema promettente, quello che accade durante molte delle interazioni umane. Tutto questo senza alcuna istruzione, indicazione o informazione sul compito da svolgere. Un robot faticava sul campo e l’altro, osservando, ne anticipava le mosse. E dimostrava dunque una radice di empatia nei suoi confronti, riuscendo a leggere nella sua “mente” artificiale. Lo studio, pubblicato su Scientific Reports, apre prospettive importanti: non solo e non tanto nel rapporto fra le macchine quanto fra queste e l’essere umano. Potremmo evitare o semplificare una grande quantità di istruzioni, e dunque di lavoro ingegneristico e informatico, se in una certa quota di attività i robot (per esempio quelli di compagnia oppure quelli impiegati sul teatro di un disastro naturale) procedessero acquisendo informazioni autonomamente e leggendo le interazioni e le scelte dei loro assistiti. Se oggi rispondono a una gamma di input preimpostati, programmati in anticipo o comunque da fornire al momento, domani un pezzo di quella gamma di comandi potrebbe essere sostituita dalla pura e semplice interazione con le persone (e i “simili”) che li circondano. Nell’esperimento della Columbia, infatti, il robot osservatore è riuscito a capire quando il suo compagno non aveva la possibilità di individuare l’obiettivo, prevedendo i suoi movimenti in oltre il 98% dei casi con una sessione di appena un paio d’ore di addestramento. Come un osservatore che a bordo campo, durante una partita, provi a indovinare i movimenti di un calciatore e dopo il primo tempo di un match già ne conosca alla perfezione tutte le preferenze di stile e tecnica. Sono ovviamente primi passi molto semplici, di certo non paragonabili a quelli degli esseri umani. Eppure misurare una qualche forma di empatia primitiva fra due macchine porta il tema fuori dagli schermi cinematografici o dai romanzi di fantascienza e conforta chi, nell’ambito dell’intelligenza artificiale, lavora da anni a questo obiettivo.