Internazionale

Una tecnologia che chiede un’etica

«La cosiddetta «intelligenza artificiale» – ha affermato papa Francesco – si trova al cuore del cambiamento d’epoca che stiamo attraversando. L’innovazione digitale, infatti, tocca tutti gli aspetti della vita, sia personali sia sociali. Essa incide sul nostro modo di comprendere il mondo e anche noi stessi». Di intelligenza artificiale e degli interrogativi che essa pone dialoga con noi Paolo Benanti, francescano del Terzo Ordine Regolare: 46 anni, è membro della Pontificia Accademia per la Vita e docente di teologia morale, bioetica, neuroscienze ed etiche delle tecnologie alla Pontificia Università Gregoriana di Roma.

L’espressione «intelligenza artificiale » cosa indica specificamente?

«Questa espressione designa un ambito delle scienze informatiche sviluppato negli anni Sessanta del secolo scorso che è stato messo da parte per lungo tempo poiché la teoria allora elaborata sembrava non funzionare. La situazione è mutata agli inizi degli anni Duemila quando gli algoritmi pensati negli anni Sessanta, grazie alla straordinaria potenza di calcolo e all’immensa quantità di dati disponibili all’inizio di questo secolo, hanno mostrato di essere corretti e di garantire risultati applicabili in numerosi settori. La caratteristica di questi algoritmi è quella di superare il canone standard di programmazione. Il programmatore, infatti, non deve pensare a tutte le evenienze in cui potrà venire a trovarsi la macchina e quindi indicarle come comportarsi nelle differenti circostanze: la macchina, invece, viene addestrata e diventa in grado di adattarsi da sola a vari contesti. In questo senso essa mostra una certa autonomia e alcuni suoi comportamenti somigliano a quelli intelligenti di un essere umano. Questa tecnologia può dimostrarsi molto utile per il bene dell’uomo, ma anche estremamente dannosa».

Ciò si è rivelato evidente, ad esempio, nel caso della pandemia.

«Proprio così. I sistemi di intelligenza artificiale hanno dato un significativo, benefico contributo nell’elaborazione delle diagnosi e nella ricerca dei vaccini. Per contro, poiché i sistemi di intelligenza artificiale possono creare immagini e video falsi (non distinguibili dal vero), c’è chi li ha usati per diffondere fake news suscitando la paura dei vaccini. La disinformazione è un’arma potentissima che crea danni enormi. Per i sistemi di intelligenza artificiale si rende necessario promuovere una regolamentazione il più possibile giusta, equa, responsabile».

Lei ha più volte affermato che è tempo di scrivere un nuovo capitolo dell’etica: l’algoretica. Con questa espressione cosa intende designare?

«L’algoretica è l’etica che diventa «comprensibile» per la macchina. Bisogna rendere realmente determinanti i valori che ci stanno a cuore (ad esempio l’equità, la giustizia, la solidarietà) riuscendo a trasferirli alle macchine attraverso algoritmi, quindi dando direttive etiche in un linguaggio che le macchine possano capire e utilizzare».

Nel febbraio del 2020 la Pontificia Accademia per la Vita, guidata da monsignor Vincenzo Paglia, ha presentato la « Rome Call for AI Ethics », un documento di rilievo che ha visto tra i primi firmatari Brad Smith, presidente di Microsoft, John Kelly III, vicepresidente esecutivo di IBM, Dongyu Qu, direttore generale della FAO, e il governo italiano. La Call incoraggia un approccio etico all’intelligenza artificiale e promuove un’alleanza – tra istituzioni, organizzazioni, governi – affinché l’innovazione digitale e il progresso tecnologico siano al servizio dell’uomo. Come si articola questo documento?

« Nella Call, composta da tre sezioni (etica, educazione, diritto), sono indicati sei principi etici condivisi, che costituiscono i pilastri dell’algoretica: 1) la trasparenza: i sistemi di intelligenza artificiale devono poter essere compresi da tutti; 2) l’inclusione: tali sistemi non devono fare discriminazioni favorendo alcuni e penalizzando altri poiché tutti gli esseri umani hanno uguale dignità; 3) la responsabilità: deve sempre esserci qualcuno che si assume la responsabilità di ciò che la macchina compie; 4) l’imparzialità: i sistemi di intelligenza artificiale non devono agire secondo pregiudizi, né crearli, proteggendo così l’equità e la dignità umana; 5) l’affidabilità: questi sistemi devono essere in grado di funzionare in modo affidabile; 6) Sicurezza e privacy: devono inoltre funzionare in modo sicuro e rispettare la privacy degli utenti».

Dallo scorso anno altre istituzioni e aziende hanno sottoscritto la Call?

«Sì, e sono state molte. Presto sarà pubblicato un report che documenta, in particolare, i passi che le aziende firmatarie hanno compiuto per rendere i loro sistemi più aderenti ai sei principi sopracitati. La Pontificia Accademia per la Vita è impegnata a promuovere la Call in tutto il mondo, intende presentarla al Parlamento Europeo e alle Nazioni Unite e sta lavorando affinché venga firmata anche dai leader delle altre religioni monoteiste».

di Cristina Uguccioni

3 Settembre 2021 | 14:58
Condividere questo articolo!