La dimensione etica dell’algoritmo

Share on facebook
Share on twitter
Share on linkedin

L’intelligenza artificiale è ovunque e impatta sempre più la vita di cittadini, Stati e imprese. Per qualcuno è una rivoluzione ancora più dirompente di internet e come tutte le rivoluzioni porta con sé anche questioni morali e civili

Immaginate di guidare su una strada senza traffico che corre lungo un dirupo. Accanto a voi siede un passeggero quando improvvisamente un gruppo di pedoni attraversa la strada fuori dalle strisce pedonali. La vostra velocità è
sostenuta, l’area d’impatto troppo vicina e frenare non serve. Che fate? Sterzate con decisione rischiando di finire nel burrone? Oppure procedete investendo i pedoni? Ora immaginate che a guidare quell’auto sia un algoritmo. Decidere quale comando dare all’automa, in fase di progettazione, è un chiaro esempio di dilemma etico che accompagna la programmazione, lo sviluppo e l’implementazione dei sistemi di intelligenza artificiale (IA).

Proprio su un esempio simile, il Massachusetts Institute of Technology ha lanciato un sondaggio con oltre 40 milioni di risposte. Le conclusioni, pubblicate su Nature, hanno sottolineato la tendenza generale dei partecipanti a salvare il maggior numero di vite umane, anche a discapito degli animali, preferendo la difesa di giovani e bambini. Ma nei risultati sono emerse anche notevoli differenze regionali, etniche e culturali. Se ciascun gruppo degli intervistati avesse dovuto programmare un’auto a guida autonoma, probabilmente lo avrebbe fatto con input differenti.

“Nella società digitale, l’IA è talmente pervasiva che non può essere più scissa ormai dalla dimensione etica”, afferma Guglielmo Tamburrini, docente di logica e filosofia della scienza presso l’università di Napoli “Federico II” e autore del libro Etica delle Macchine (Carocci Editore). Il momento della programmazione delle macchine è fondamentale, perché chi programma l’intelligenza artificiale lo fa portando nei dati il proprio insieme di asset valoriali ed etici”. E questi dati sono il carburante del machine learning (l’apprendimento della macchina con l’analisi di big data) e del deep learning (che utilizza le reti neurali per simulare il funzionamento del nostro cervello).

Intelligenza artificiale non vuol dire solo complessi macchinari o robot umanoidi. Si basano sui suoi algoritmi tutti quei software utilizzati, per esempio, per profilare le campagne di comunicazione, per selezionare i post nelle nostre bacheche social oppure per scartare i curricula per un posto di lavoro. Nella giustizia predittiva gli algoritmi sono utilizzati per anticipare le decisioni di un giudice o per prevedere la recidiva di un reato, con tutta la delicatezza che questa capacità prevede. L’intelligenza artificiale oggi è davvero ovunque. E non sempre etica e tecnologia sono andate a braccetto.

Un video di qualche anno fa su Twitter immortalava un dispenser automatico di sapone che si attivava solo quando la mano sottoposta ai sensori era di un bianco. In quel caso l’output della macchina riproduceva una distorsione a valle: quella della composizione del team di programmatori, evidentemente bianchi, che avevano testato il funzionamento del dispenser solo con le loro mani. Nel 2015 Google dovette addirittura scusarsi pubblicamente perché la sua piattaforma Google Foto aveva etichettato come gorilla due persone di colore. Alla base del funzionamento del dispenser e del software di archiviazione di Google c’erano dei bias, dei pregiudizi, che hanno dato adito a comportamenti discriminatori, in questo caso razziali, che spesso riguardano il genere, la cultura o lo status sociale.Un esempio di conseguenze indesiderate dell’uso dell’intelligenza artificiale arriva dal caso Anyvision, un servizio di una startup israeliana basato sul riconoscimento facciale e sulla catalogazione dei dati derivati. Diverse Ong hanno accusato l’algoritmo di promuovere una sorveglianza di massa ai danni dei palestinesi in Cisgiordania. Un’accusa sempre rigettata dalla startup, ma che ha convinto Microsoft ad uscire dal programma di finanziamento proprio a causa della dubbia eticità del programma.

La convergenza di etica e tecnologia ha portato diverse università italiane a fondare nel dicembre scorso SIpEIA, Società Italiana per l’Etica dell’Intelligenza Artificiale. “I sistemi di apprendimento automatico – afferma Guido Boella, membro della società – sono basati su una enorme mole di dati difficile da controllare, che possono derivare da un pregiudizio o da una distorta percezione della realtà. L’algoritmo prende come corretti dati non corretti e sporchi, dando luogo a decisioni che rafforzano delle distorsioni”.  Certo, le scelte “umane” sono influenzate dai nostri valori morali ma, come sottolinea il presidente di SIpEIA, il filosofo Maurizio Mori, “l’intelligenza artificiale funge da amplificatore. Bisogna perciò capire cosa e quanto automatizzare”.

Recentemente Ibm ha lanciato un software per individuare i bias delle IA, fornendo anche suggerimenti su come correggere gli algoritmi, e un recente esperimento dell’università del Massachusetts ha organizzato dei framework per studiare il processo di elaborazione dei dati delle IA. Comprendere come funziona una macchina e rendere trasparenti i suoi processi è l’obiettivo dell’Explainable Ai (XAI) che crea modelli trasparenti in modo da poter intervenire in caso di errori nelle scelte della macchina. “Essere coscienti del funzionamento degli algoritmi è fondamentale. Spesso questi sistemi colgono correlazioni tra dati che noi non cogliamo e non riusciamo a spiegare”, sottolinea Guido Boella.

Un passo avanti verso la consapevolezza della problematicità del rapporto tra etica e tecnologia può arrivare dalla crescente sensibilità del legislatore. La Commissione europea ha promulgato sette principi-base per promuovere un’intelligenza artificiale che sia sotto il controllo umano, che sia “robusta e sicura”, che tratti con riservatezza i dati, che garantisca la trasparenza dei suoi processi, che sia equa e non discriminatoria, che badi al benessere sociale e ambientale e che sia responsabile. “Un robot non può recare danno all’umanità, né può permettere che, a causa del suo mancato intervento, l’umanità riceva danno”.

È la legge zero di Isaac Asimov. Era il 1947. Quasi ottant’anni dopo, evidentemente, The Good Doctor merita una rilettura.