Sophia: le sfide etiche di un robot che è più di una macchina

È stata a Lugano nelle scorse settimane, esposta al LAC, destando l’attenzione della comunità scientifica e dei mezzi di comunicazione. Ha dialogato con i giornalisti, rispondendo alle loro domande. Il suo volto in silicone ha le sembianze dell’attrice americana Audrey Hepburn. Lei, Sophia, è un robot umanoide creato dalla Hanson robotics di Hong Kong. Nei suoi occhi che ti osservano, sono inserite due telecamere. Sophia riesce a riprodurre oltre 60 espressioni facciali umane, ha un ampio bagaglio di informazioni e degli algoritmi che le consentono di sostenere un buon numero di conversazioni. Spiega cos’è per lei la felicità e offre giudizi sull’intelligenza della razza umana, sua creatrice. L’Arabia Saudita le ha conferito la cittadinanza, facendo di lei il primo robot al mondo ad avere un passaporto. Ne parliamo con il prof. Markus Krienke, docente di etica sociale alla Facoltà di Teologia di Lugano.

Prof. Krienke, Sophia non è una persona, eppure a vederla e a sentirla il dubbio sorge: è più di una macchina: Cos’è? Come definirla? Cosa sarà, un domani?

Anche se sappiamo che Sophia non dispone di tutti i momenti costitutivi di un essere umano quali coscienza, intenzionalità, un corpo biologico ecc., non possiamo accontentarci della risposta che si tratta «solo di una macchina». Nel 2013 l’Intelligenza Artificiale (IA) ha raggiunto il quoziente intellettivo (QI) di un bambino di 4 anni mentre tra un decennio sarà paragonabile a quella di un adulto. L’IA «Deep Blue» ha vinto nel 1996 contro il campione del mondo di scacchi, Kasparov, e nel 2016 il programma «AlphaGo» ha battuto Lee Sedol addirittura nel gioco «Go» – un antico gioco da tavolo cinese ritenuto «impossibile» per l’IA perché richiede specifiche capacità intuitive e strategiche per cui un computer non può cavarsela con il semplice calcolo delle mosse possibili. Si prevede che alla metà di questo secolo, le «macchine» svolgeranno quasi la metà dei lavori di oggi, non risparmiando i «colletti bianchi». La velocità di questo sviluppo e le previsioni per il futuro ci costringono quindi a una riflessione profonda. Se i robot ormai sanno «imparare» e possono imitare il pensiero strategico e persino le emozioni umane nonché agire in modo autonomo, hanno raggiunto senz’altro ciò che definirei la «soggettività». Ma non potranno mai diventare «persone», per cui resteranno sempre a livello di «cose».

 »Gli umani hanno intelligenza, la capacità di adattarsi, l’immaginazione e l’emotività, uno standard molto alto da raggiungere e imitare», dichiara Sophia. L’umanoide quindi afferma di ambire a possedere queste capacità. Avrà mai una coscienza?

Siccome la percezione della realtà come l’ha Sophia consiste esclusivamente nei dati digitali, lei non ha mai il contatto con il mondo come lo hanno le persone umane. Quando il robot pronuncia parole, non le mette quindi in relazione con il mondo esterno a lei. A maggior ragione non può riferirsi a sé stessa, interrogarsi sulla propria «vita», su ciò che è «vero» e «buono», come fanno gli esseri umani. Infatti, quando Sophia decide e agisce, lo fa sulla base di mappe che contengono i «dati» del mondo: conosce quindi solo una codificazione della realtà, che non può mai essere del tutto completa, perché la realtà è sempre più complessa della capienza di qualsiasi macchina intelligente. La coscienza umana, al contrario, non pretende di essere «perfetta» nel conoscere e nell’agire, ma sa di stare veramente in relazione alla realtà e a sé stessa. Questa relazionalità diretta viene anche chiamata «intenzionalità». Il robot non possiede la possibilità di riflettere sul mondo e su sé stesso: quindi non avrà mai coscienza.

La robot Sophia durante un convegno

Proprio questo aspetto che la mente umana possiede intenzionalità e il computer no, viene approfondito dal filosofo americano John Searle. La capacità del computer di eseguire una procedura non implica -come spiega Searle- la semantica, il fatto che la macchina sappia che cosa sta facendo. Sophia è così? Sa fare ma non ha piena consapevolezza delle sue azioni?

Infatti l’intenzionalità significa anche questa seconda cosa. Ciò che intende Searle viene verificato anche da un semplice test, chiamato Winograd Schema Challenge: il computer davanti alla semplice frase «Non posso abbattere la pianta con l’ascia; è troppo piccola» non riesce a rispondere alla domanda «Che cos’è troppo piccola, la pianta o l’ascia?». Mancando di capacità semantica, l’IA che senz’altro supera la mente umana in tutti i compiti «quantitativi», proprio in questi semplici casi è costretta a indovinare. In altre parole, il computer combina segni linguistici secondo determinate regole, ottenendo risultati sempre migliori, specialmente quando pensiamo ai programmi di traduzione, ma non comprende che cosa dice e a che cosa riferisce con le parole. Mentre l’IA affronta la realtà in modo solo quantitativo, il cervello umano eccelle nell’avere l’intenzionalità.

Searle, sfuggendo da una prospettiva dualista cartesiana, asserisce che la coscienza è una caratteristica fisica degli organismi dotati di sistema nervoso: la coscienza è causata dal cervello, ma non si identifica con l’attività del cervello. Sophia pensa ma non ha un corpo umano. Quel è il valore del corpo umano in rapporto all’essere una persona? E cosa sei, se non hai un corpo umano?

Questa intenzionalità di cui abbiamo parlato, la mente umana ce l’ha soltanto in quanto possiede un corpo biologico, perché solo esso costituisce il necessario contatto diretto con la realtà e quindi la capacità di potersi riferire direttamente a qualcosa. Come abbiamo visto, solo tale riferimento dà significato alle parole e all’agire. Ammettiamo che Mary conosca tutte le informazioni su cosa significa «vedere colori», ma viva in una casa in cui non esistono colori. Fino a quando non esce dalla casa, non saprà mai come è vedere i colori. Ecco l’importanza del nostro corpo per ogni tipo di esperienza umana che non è mai riducibile all’insieme di dati di cui può disporre un’IA, ricavandone imitazioni sorprendenti e addirittura perfezionamenti del pensiero e dell’azione umana.

 »Farò del mio meglio per creare un mondo migliore», assicura Sophia in una delle sue interviste. Robot come Sophia potrebbero essere usati -ad esempio- per far compagnia agli anziani o per sostituire il personale impiegato in lavori ripetitivi, in un futuro anche in campo sanitario. Quali sono i rischi e le performance? 

Lo stesso ragionamento sulla differenza dell’»esperienza umana» da quella del robot umanoide vale  nel campo morale delle relazioni tra le persone, a maggior ragione quando si tratta di rapporti di fiducia e di cura: ammettiamo che un assistente di cure (robot) uccida per sbaglio un paziente, perché gli mancava l’informazione che invece della medicina gli dava veleno, ed esprima dispiacere per la morte del paziente. Siccome si tratta di un robot, non esiste nessuna possibilità di giudicare moralmente questa situazione o di attribuirgliene responsabilità: semplicemente gli «mancava» un’informazione, e il dispiacere è solo la reazione che esso ha imparato a mostrare in tali casi. Certamente anche per il robot sarebbe meglio se il paziente non fosse morto perché riceverebbe un feedback positivo, ma non gli è possibile giungere a un giudizio morale (»di coscienza») sul proprio agire. Sebbene, riguardo al settore della cura delle persone manchi ai robot il senso della responsabilità e dell’empatia, si colloca proprio qui uno degli sbocchi possibili dell’IA per una società sempre più anziana. Perciò, mentre nei lavori ripetitivi non si pongono questi problemi morali, sarà necessario trovare delle regole e legislazioni precise per l’utilizzo dell’IA in lavori in cui i robot entrano in contatto diretto con delle persone. Nei lavori ripetitivi, l’IA può essere considerata «mezzo tecnologico», mentre nei lavori di assistenza di persone essa assume una vera e propria agency verso le persone. Un ulteriore motivo per l’introduzione di tali regole e limiti sta nel fatto che della persona assistita sono coinvolte dimensioni sensibili ed emozionali. Ma come si vede non solo nel caso di Sophia ma anche nel film Ex Machina del 2015, quando i robot riescono a imitare le emozioni umane e a leggere le espressività degli esseri umani con cui interagiscono, ciò è sempre il risultato di Big Data, per cui tali emozioni e interazioni non saranno mai espressioni spontanee in riferimento a qualcosa: non hanno significato.

Stiamo andando nella direzione di quello che l’autore americano Raymond Kurzweil preconizza nel suo libro futuristico del 1999 «The age of Spiritual Machine» e nel successivo lavoro dal titolo «La singolarità è vicina»?

Da Prometeo, passando per la figura medievale di Golem fino a Frankenstein, il sogno di creare esseri intelligenti e dotati di tutte le capacità umane, inclusa la coscienza, accompagna l’umanità. E come si vede nel film Matrix, oggi questo desiderio porta all’idea di oltrepassare con una sorta di «evoluzionismo tecnologico» l’umano in una sfera transumana dell’IA. In questa prospettiva, l’era delle macchine spirituali sarebbe il punto di arrivo, del resto previsto dall’autore Raymond Kurzweil nel suo libro futuristico per il vicino 2045: mentre lo «svantaggio» dell’intelligenza umana starebbe nell’essere ancora legata al corpo imperfetto, soggetto alle sue debolezze e infine alla morte, l’IA la supera -in questa visione- nella costituzione di macchine spirituali, infallibili e immortali. Tale stadio della realizzazione di un’IA «forte» (cioè pienamente sostituente l’intelligenza umana) egli lo chiama la «Singolarità». Ciò su cui Kurzweil non riflette, è proprio che in questo modo tali «macchine spirituali» non superano ma perdono tutto ciò che davvero rende l’uomo – nella sua «singolarità» incorporata – la «corona» della creazione: libertà, autodeterminazione, la capacità di fare scelte morali e di assumersi la responsabilità, la capacità di perdono ecc. Tutte queste perfezioni le possiede lo spirito umano proprio perché non è «artificiale» ma risiede in un corpo biologico.

L’IA forse aspira alle «decisioni perfette», ma il carattere morale delle scelte e decisioni umane non sta nella «perfezione» ma nella capacità di ponderare ragioni e motivi dell’agire, cercando di realizzare il bene e di evitare il male. In altre parole, mentre l’imperativo dell’IA è l’ottimizzazione, quello degli esseri umani è la «responsabilità». Nella menzionata prospettiva di Kurzweil, tutto dipende da come si definisce lo «spirito»: se, sulla base di ciò che abbiamo appena detto, chiamiamo «spirito» intelligence with reason, allora l’IA come intelligence without reason non potrà mai inaugurare un’«età delle macchine spirituali».

Chiesa cattolica svizzera

https://www.catt.ch/newsi/sophia-le-sfide-etiche-di-un-robot-che-e-piu-di-una-macchina/