INTERVENTO DI PAPA FRANCESCO AL G7 ITALIA: TESTO INTEGRALE DISCORSO
Pubblichiamo integralmente l’intervento del Pontefice oggi, 14 giugno 2024, alla sessione comune del vertice che si svolge a Borgo Egnazia, in Puglia, sul tema della intelligenza artificiale
È GIUSTO INFORMARE
Intelligenza Artificiale e fattore umano
di Andrea Tornielli
«I sistemi d’arma autonomi non potranno mai essere soggetti moralmente responsabili: l’esclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina che, per quanto “intelligente”, rimane pur sempre una macchina. Per questo motivo, è imperativo garantire una supervisione umana adeguata, significativa e coerente dei sistemi d’arma». Lo ha scritto Papa Francesco nel messaggio per la Giornata mondiale della Pace 2024.
C’è un episodio, accaduto quarant’anni fa, che dovrebbe diventare un paradigma ogni qual volta si parla di intelligenza artificiale applicata alla guerra, alle armi, agli strumenti di morte. Ed è la storia dell’ufficiale sovietico che con la sua decisione, contravvenendo ai protocolli, ha salvato il mondo da un conflitto nucleare che avrebbe avuto conseguenze catastrofiche. Quell’uomo si chiamava Stanislav Evgrafovich Petrov, era un tenente colonnello dell’esercito russo e il 26 settembre 1983 prestava servizio notturno nel bunker “Serpukhov 15” monitorando le attività missilistiche degli Stati Uniti. La Guerra Fredda era ad una svolta cruciale, il presidente americano Ronald Reagan stava investendo somme ingentissime negli armamenti e aveva appena definito l’URSS «impero del male», la Nato era impegnata in esercitazioni militari che ricreavano scenari di guerra nucleare. Al Cremlino sedeva Jurij Andropov che da poco aveva parlato di un «acuirsi senza precedenti» della crisi e il 1° settembre i sovietici avevano abbattuto un aereo di linea della Korean Air Lines sulla penisola di Kamchatka provocando 269 vittime.
Quella notte del 26 settembre Petrov vide che l’elaboratore Krokus, il cervellone considerato infallibile nel monitorare l’attività nemica, aveva segnalato da una base del Montana la partenza di un missile diretto in Unione Sovietica. Il protocollo prevedeva che l’ufficiale avvertisse immediatamente i superiori, i quali avrebbero dato il via libera per la risposta lanciando missili verso gli Stati Uniti. Ma Petrov prese tempo, anche perché — gli era stato detto — un eventuale attacco sarebbe stato massiccio. Considerò dunque quel missile solitario un falso allarme. E fece lo stesso per i quattro successivi che poco dopo apparvero sui suoi monitor, chiedendosi perché dai radar di terra non arrivasse alcuna conferma. Sapeva bene che i missili intercontinentali impiegavano meno di mezz’ora per arrivare a destinazione ma decise di non lanciare l’allarme, lasciando impietriti gli altri militari presenti.
In realtà il cervellone elettronico aveva sbagliato, non c’era stato alcun attacco missilistico. Krokus era stato tratto in inganno da un fenomeno di rifrazione della luce solare a contatto con le nubi ad alta quota. Insomma, l’intelligenza umana aveva visto oltre quella della macchina. La provvidenziale decisione di non decidere era stata presa da un uomo, il cui giudizio aveva saputo guardare oltre i dati e i protocolli.
La catastrofe nucleare fu evitata, anche se allora nessuno seppe dell’accaduto fino agli inizi degli anni Novanta. Petrov, scomparso nel settembre 2017, così aveva commentato quella notte nel bunker “Serpukhov 15”: «Che ho fatto? Niente di speciale, solamente il mio lavoro. Ero l’uomo giusto al posto giusto al momento giusto». Era stato l’uomo in grado di valutare il possibile errore della macchina considerata infallibile, l’uomo capace — per tornare alle parole del Papa — «di giudizio morale e di decisione etica», perché una macchina, per quanto “intelligente”, rimane pur sempre una macchina.
La guerra, ripete Francesco, è una pazzia, una sconfitta dell’umanità. La guerra è una grave violazione della dignità umana. Fare la guerra nascondendosi dietro gli algoritmi, affidarsi all’intelligenza artificiale per stabilire i bersagli e la modalità di colpirli, e così sgravarsi la coscienza perché alla fine ha scelto la macchina, è ancora più grave. Non dimentichiamoci di Stanislav Evgrafovich Petrov.
G7 ITALIA 2024
G7, il Papa: nessuna macchina dovrebbe scegliere se togliere la vita a un essere umano
Francesco interviene al summit a Borgo Egnazia, in Puglia. Quattro bilaterali, poi l’intervento nella sessione comune con i leader del mondo, ai quali indica opportunità, pericoli, effetti dell’intelligenza artificiale: “Condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine”. L’appello ad una “sana politica” per il bene comune
Salvatore Cernuzio – Città del Vaticano
Lo scenario appare distopico, ma il rischio è quanto mai reale: “Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano”. Francesco è al G7 di Borgo Egnazia, in Puglia, primo Papa a prendere parte a un summit dei ‘Grandi della terra’ a cui parla di intelligenza artificiale: uno “strumento affascinante” ma allo stesso tempo “tremendo”, dice, capace di portare benefici o provocare danni come tutti “gli utensili” creati dall’uomo sin dalla notte dei tempi.
L’arrivo in Puglia
In Puglia il Papa è arrivato con venti minuti d’anticipo rispetto al programma: l’elicottero è atterrato alle 12.10 in una distesa di ulivi. Ad accoglierlo, il presidente del Consiglio italiano, Giorgia Meloni. Con lei una stretta di mano e alcune battute: “Ancora vivi”, dice la premier. “Siamo in due”, risponde Francesco. E Meloni: “Sarà una giornata lunga ma bella”. Insieme in golf car, si dirigono verso la residenza riservata dove, dopo le 12.30, si dà il via ai primi quattro bilaterali previsti: Kristalina Georgieva, direttrice generale del Fondo Monetario Internazionale, i presidenti ucraino Zelensky e francese Macron e il primo ministro canadese Trudeau. Alle 14 Papa Francesco si trasferisce nella Sala Arena, dove, a turno, stringe le mani di tutti i presenti seduti al tavolo circolare. Qualcuno lo abbraccia o si abbassa per sussurrare alcune parole all’orecchio.
Urgente ripensare sviluppo e utilizzo delle cosiddette “armi letali autonome”
Meloni introduce il discorso del Papa, spiegando anzitutto la scelta della Puglia quale terra che “storicamente ha rappresentato un ponte tra Oriente e Occidente, luogo di dialogo, mare di mezzo con Africa e Medio Oriente”. Ringrazia poi “Sua Santità”, la cui partecipazione, dice, “rende inevitabilmente questo appuntamento storico”.
Seduto al tavolo con i leader, il Papa condivide quindi le sue riflessioni sull’Intelligenza Artificiale, tema a cui aveva già dedicato il Messaggio per la 58.ma Giornata Mondiale delle Comunicazioni sociali. Dinanzi a uomini e donne che detengono responsabilità sul mondo, ne sviscera ora opportunità ma soprattutto rischi ed “effetti sul futuro dell’umanità”. Lo sguardo è fisso soprattutto a questa guerra dai ‘pezzi’ sempre più unificati.
In un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette “armi letali autonome” per bandirne l’uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano.
Il potenziale umano
Mai succeda che siano le macchine ad uccidere l’uomo che le ha create. Proprio dall’ingegno umano Francesco snoda la sua riflessione dal tavolo del G7, per chiarire come non ci sia pregiudizio alcuno sui progressi scientifici e tecnologici, ma piuttosto il timore di una deriva: “La scienza e la tecnologia sono prodotti straordinari del potenziale creativo di noi esseri umani”, scandisce. È “dall’utilizzo di questo potenziale creativo che Dio ci ha donato che viene alla luce l’intelligenza artificiale”, strumento “estremamente potente”, sottolinea il Papa, impiegato in tantissime aree dell’agire umano: medicina, lavoro, cultura, comunicazione, educazione, politica. “È ora lecito ipotizzare che il suo uso influenzerà sempre di più il nostro modo di vivere, le nostre relazioni sociali e nel futuro persino la maniera in cui concepiamo la nostra identità di esseri umani”
All’essere umano deve rimanere la decisione
Perciò, da un lato, entusiasmano le possibilità che l’IA offre; dall’altro, generano timore per le conseguenze che lasciano presagire. Anzitutto per Francesco bisogna distinguere tra una macchina che “può, in alcune forme e con questi nuovi mezzi, produrre delle scelte algoritmiche” e dunque “una scelta tecnica tra più possibilità”, e l’essere umano che, invece, “non solo sceglie, ma in cuor suo è capace di decidere”.
Per questa ragione, di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita
A rischio la dignità umana
Il monito del Papa è incisivo: “Condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine. Abbiamo bisogno – dice – di garantire e tutelare uno spazio di controllo significativo dell’essere umano sul processo di scelta dei programmi di intelligenza artificiale: ne va della stessa dignità umana”.
Rivoluzione cognitivo-industriale
Insomma, non si tratta solo di progresso scientifico ma si è davanti ad “una vera e propria rivoluzione cognitivo-industriale, che – afferma Papa Francesco – contribuirà alla creazione di un nuovo sistema sociale caratterizzato da complesse trasformazioni epocali”.
L’intelligenza artificiale potrebbe permettere una democratizzazione dell’accesso al sapere, il progresso esponenziale della ricerca scientifica, la possibilità di delegare alle macchine i lavori usuranti; ma, al tempo stesso, essa potrebbe portare con sé una più grande ingiustizia fra nazioni avanzate e nazioni in via di sviluppo, fra ceti sociali dominanti e ceti sociali oppressi, mettendo così in pericolo la possibilità di una “cultura dell’incontro” a vantaggio di una “cultura dello scarto”. Questo è il pericolo…
Etica e algoretica
Francesco parla quindi di “etica”: è in essa che si gioca la condizione umana di “libertà” e “responsabilità”; è senza di essa che “l’umanità ha pervertito i fini del suo essere trasformandosi in nemica di sé stessa e del pianeta”. E oggi che, osserva il Papa, “si registra come uno smarrimento o quantomeno un’eclissi del senso dell’umano”, i programmi di intelligenza artificiale “debbono essere sempre ordinati al bene di ogni essere umano”. Devono avere, cioè, “un’ispirazione etica”.
In tal senso il Papa cita favorevolmente la firma a Roma, nel 2020 segnato dalla pandemia, della Rome Call for AI Ethics e il sostegno a quella forma di moderazione etica degli algoritmi condensata nel neologismo “algoretica”: “Se facciamo fatica a definire un solo insieme di valori globali, possiamo però trovare dei principi condivisi con cui affrontare e sciogliere eventuali dilemmi o conflitti del vivere”.
Può funzionare il mondo senza politica?
Tra i vari rischi il Papa paventa pure quello di un “paradigma tecnocratico”. È proprio qui, afferma, che si rende “urgente l’azione politica”. La politica… per molti oggi “una brutta parola” che richiama “errori”, “corruzione”, “inefficienza di alcuni politici” a cui si aggiungono “le strategie che mirano a indebolirla, a sostituirla con l’economia o a dominarla con qualche ideologia”. Il Papa ricorda invece le parole spesso attribuite a Paolo VI, ma che il primo a pronunciare fu Pio XII: “La politica è la forma più alta della carità, la forma più alta dell’amore”.
“Può funzionare il mondo senza politica?”, domanda quindi Jorge Mario Bergoglio. Sì, “la politica serve” è la risposta. “Sempre c’è la tentazione di uniformare tutto”, aggiunge a braccio. E cita “un romanzo famoso di inizio ‘900”, The lord of the World, il libro di Richard Hugh Benson menzionato già diverse altre volte in passato: “Un romanzo inglese che fa vedere il futuro senza politica, un futuro uniformante. È bello leggerlo, è interessante”.
L’urgenza dell’azione di una “sana politica”
Il Papa ribadisce quindi, davanti agli scenari descritti, l’urgenza di una “sana politica” che possa far guardare con speranza e fiducia al nostro avvenire. Ci sono infatti “cose che devono essere cambiate con reimpostazioni di fondo e trasformazioni importanti” e “solo una sana politica potrebbe averne la guida, coinvolgendo i più diversi settori e i più vari saperi”. “In tal modo – aggiunge Francesco – un’economia integrata in un progetto politico, sociale, culturale e popolare che tenda al bene comune può aprire la strada a opportunità differenti, che non implicano di fermare la creatività umana e il suo sogno di progresso, ma piuttosto di incanalare tale energia in modo nuovo”.
Papa Francesco al G7, il testo integrale del discorso
Uno strumento affascinante e tremendo
Gentili Signore, illustri Signori!
Mi rivolgo oggi a Voi, Leader del ForumIntergovernativo del G7, con una riflessione sugli effetti dell’intelligenza artificiale sul futuro dell’umanità.
«La Sacra Scrittura attesta che Dio ha donato agli uomini il suo Spirito affinché abbiano “saggezza, intelligenza e scienza in ogni genere di lavoro” (Es 35,31)» [1]. La scienza e la tecnologia sono dunque prodotti straordinari del potenziale creativo di noi esseri umani [2].
Ebbene, è proprio dall’utilizzo di questo potenziale creativo che Dio ci ha donato che viene alla luce l’intelligenza artificiale.
Quest’ultima, come è noto, è uno strumento estremamente potente, impiegato in tantissime aree dell’agire umano: dalla medicina al mondo del lavoro, dalla cultura all’ambito della comunicazione, dall’educazione alla politica. Ed è ora lecito ipotizzare che il suo uso influenzerà sempre di più il nostro modo di vivere, le nostre relazioni sociali e nel futuro persino la maniera in cui concepiamo la nostra identità di esseri umani [3].
Il tema dell’intelligenza artificiale è, tuttavia, spesso percepito come ambivalente: da un lato, entusiasma per le possibilità che offre, dall’altro genera timore per le conseguenze che lascia presagire. A questo proposito si può dire che tutti noi siamo, anche se in misura diversa, attraversati da due emozioni: siamo entusiasti, quando immaginiamo i progressi che dall’intelligenza artificiale possono derivare, ma, al tempo stesso, siamo impauriti quando constatiamo i pericoli inerenti al suo uso [4].
Non possiamo, del resto, dubitare che l’avvento dell’intelligenza artificiale rappresenti una vera e propria rivoluzione cognitivo-industriale, che contribuirà alla creazione di un nuovo sistema sociale caratterizzato da complesse trasformazioni epocali. Ad esempio, l’intelligenza artificiale potrebbe permettere una democratizzazione dell’accesso al sapere, il progresso esponenziale della ricerca scientifica, la possibilità di delegare alle macchine i lavori usuranti; ma, al tempo stesso, essa potrebbe portare con sé una più grande ingiustizia fra nazioni avanzate e nazioni in via di sviluppo, fra ceti sociali dominanti e ceti sociali oppressi, mettendo così in pericolo la possibilità di una “cultura dell’incontro” a vantaggio di una “cultura dello scarto”.
La portata di queste complesse trasformazioni è ovviamente legata al rapido sviluppo tecnologico dell’intelligenza artificiale stessa.
Proprio questo vigoroso avanzamento tecnologico rende l’intelligenza artificiale uno strumento affascinante e tremendo al tempo stesso ed impone una riflessione all’altezza della situazione.
In tale direzione forse si potrebbe partire dalla costatazione che l’intelligenza artificiale è innanzitutto uno strumento. E viene spontaneo affermare che i benefici o i danni che essa porterà dipenderanno dal suo impiego.
Questo è sicuramente vero, poiché così è stato per ogni utensile costruito dall’essere umano sin dalla notte dei tempi.
Questa nostra capacità di costruire utensili, in una quantità e complessità che non ha pari tra i viventi, fa parlare di una condizione tecno-umana: l’essere umano ha da sempre mantenuto una relazione con l’ambiente mediata dagli strumenti che via via produceva. Non è possibile separare la storia dell’uomo e della civilizzazione dalla storia di tali strumenti. Qualcuno ha voluto leggere in tutto ciò una sorta di mancanza, un deficit, dell’essere umano, come se, a causa di tale carenza, fosse costretto a dare vita alla tecnologia [5]. Uno sguardo attento e oggettivo in realtà ci mostra l’opposto. Viviamo una condizione di ulteriorità rispetto al nostro essere biologico; siamo esseri sbilanciati verso il fuori-di-noi, anzi radicalmente aperti all’oltre. Da qui prende origine la nostra apertura agli altri e a Dio; da qui nasce il potenziale creativo della nostra intelligenza in termini di cultura e di bellezza; da qui, da ultimo, si origina la nostra capacità tecnica. La tecnologia è così una traccia di questa nostra ulteriorità.
Tuttavia, l’uso dei nostri utensili non sempre è univocamente rivolto al bene. Anche se l’essere umano sente dentro di sé una vocazione all’oltre e alla conoscenza vissuta come strumento di bene al servizio dei fratelli e delle sorelle e della casa comune (cfr Gaudium et spes, 16), non sempre questo accade. Anzi, non di rado, proprio grazie alla sua radicale libertà, l’umanità ha pervertito i fini del suo essere trasformandosi in nemica di sé stessa e del pianeta [6]. Stessa sorte possono avere gli strumenti tecnologici. Solo se sarà garantita la loro vocazione al servizio dell’umano, gli strumenti tecnologici riveleranno non solo la grandezza e la dignità unica dell’essere umano, ma anche il mandato che quest’ultimo ha ricevuto di “coltivare e custodire” (cfr Gen 2,15) il pianeta e tutti i suoi abitanti. Parlare di tecnologia è parlare di cosa significhi essere umani e quindi di quella nostra unica condizione tra libertà e responsabilità, cioè vuol dire parlare di etica.
Quando i nostri antenati, infatti, affilarono delle pietre di selce per costruire dei coltelli, li usarono sia per tagliare il pellame per i vestiti sia per uccidersi gli uni gli altri. Lo stesso si potrebbe dire di altre tecnologie molto più avanzate, quali l’energia prodotta dalla fusione degli atomi come avviene sul Sole, che potrebbe essere utilizzata certamente per produrre energia pulita e rinnovabile ma anche per ridurre il nostro pianeta in un cumulo di cenere.
L’intelligenza artificiale, però, è uno strumento ancora più complesso. Direi quasi che si tratta di uno strumento sui generis. Così, mentre l’uso di un utensile semplice (come il coltello) è sotto il controllo dell’essere umano che lo utilizza e solo da quest’ultimo dipende un suo buon uso, l’intelligenza artificiale, invece, può adattarsi autonomamente al compito che le viene assegnato e, se progettata con questa modalità, operare scelte indipendenti dall’essere umano per raggiungere l’obiettivo prefissato [7].
Conviene sempre ricordare che la macchina può, in alcune forme e con questi nuovi mezzi, produrre delle scelte algoritmiche. Ciò che la macchina fa è una scelta tecnica tra più possibilità e si basa o su criteri ben definiti o su inferenze statistiche. L’essere umano, invece, non solo sceglie, ma in cuor suo è capace di decidere. La decisione è un elemento che potremmo definire maggiormente strategico di una scelta e richiede una valutazione pratica. A volte, spesso nel difficile compito del governare, siamo chiamati a decidere con conseguenze anche su molte persone. Da sempre la riflessione umana parla a tale proposito di saggezza, la phronesis della filosofia greca e almeno in parte la sapienza della Sacra Scrittura. Di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita. Condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine. Abbiamo bisogno di garantire e tutelare uno spazio di controllo significativo dell’essere umano sul processo di scelta dei programmi di intelligenza artificiale: ne va della stessa dignità umana.
Proprio su questo tema permettetemi di insistere: in un dramma come quello dei conflitti armati è urgente ripensare lo sviluppo e l’utilizzo di dispositivi come le cosiddette “armi letali autonome” per bandirne l’uso, cominciando già da un impegno fattivo e concreto per introdurre un sempre maggiore e significativo controllo umano. Nessuna macchina dovrebbe mai scegliere se togliere la vita ad un essere umano.
C’è da aggiungere, inoltre, che il buon uso, almeno delle forme avanzate di intelligenza artificiale, non sarà pienamente sotto il controllo né degli utilizzatori né dei programmatori che ne hanno definito gli scopi originari al momento dell’ideazione. E questo è tanto più vero quanto è altamente probabile che, in un futuro non lontano, i programmi di intelligenze artificiali potranno comunicare direttamente gli uni con gli altri, per migliorare le loro performance. E, se in passato, gli esseri umani che hanno modellato utensili semplici hanno visto la loro esistenza modellata da questi ultimi – il coltello ha permesso loro di sopravvivere al freddo ma anche di sviluppare l’arte della guerra – adesso che gli esseri umani hanno modellato uno strumento complesso vedranno quest’ultimo modellare ancora di più la loro esistenza [8].
Il meccanismo basilare dell’intelligenza artificiale
Vorrei ora soffermarmi brevemente sulla complessità dell’intelligenza artificiale. Nella sua essenza l’intelligenza artificiale è un utensile disegnato per la risoluzione di un problema e funziona per mezzo di un concatenamento logico di operazioni algebriche, effettuato su categorie di dati, che sono raffrontati per scoprire delle correlazioni, migliorandone il valore statistico, grazie a un processo di auto-apprendimento, basato sulla ricerca di ulteriori dati e sull’auto-modifica delle sue procedure di calcolo.
L’intelligenza artificiale è così disegnata per risolvere dei problemi specifici, ma per coloro che la utilizzano è spesso irresistibile la tentazione di trarre, a partire dalle soluzioni puntuali che essa propone, delle deduzioni generali, persino di ordine antropologico.
Un buon esempio è l’uso dei programmi disegnati per aiutare i magistrati nelle decisioni relative alla concessione dei domiciliari a detenuti che stanno scontando una pena in un istituto carcerario. In questo caso, si chiede all’intelligenza artificiale di prevedere la probabilità di recidiva del crimine commesso da parte di un condannato a partire da categorie prefissate (tipo di reato, comportamento in prigione, valutazione psicologiche ed altro), permettendo all’intelligenza artificiale di avere accesso a categorie di dati inerenti alla vita privata del detenuto (origine etnica, livello educativo, linea di credito ed altro). L’uso di una tale metodologia – che rischia a volte di delegare de facto a una macchina l’ultima parola sul destino di una persona – può portare con sé implicitamente il riferimento ai pregiudizi insiti alle categorie di dati utilizzati dall’intelligenza artificiale.
L’essere classificato in un certo gruppo etnico o, più prosaicamente, l’aver commesso anni prima un’infrazione minore (il non avere pagato, per esempio, una multa per una sosta vietata), influenzerà, infatti, la decisione circa la concessione dei domiciliari. Al contrario, l’essere umano è sempre in evoluzione ed è capace di sorprendere con le sue azioni, cosa di cui la macchina non può tenere conto.
C’è da far presente poi che applicazioni simili a questa appena citata subiranno un’accelerazione grazie al fatto che i programmi di intelligenza artificiale saranno sempre più dotati della capacità di interagire direttamente con gli esseri umani (chatbots), sostenendo conversazioni con loro e stabilendo rapporti di vicinanza con loro, spesso molto piacevoli e rassicuranti, in quanto tali programmi di intelligenza artificiale saranno disegnati per imparare a rispondere, in forma personalizzata, ai bisogni fisici e psicologici degli esseri umani.
Dimenticare che l’intelligenza artificiale non è un altro essere umano e che essa non può proporre principi generali, è spesso un grave errore che trae origine o dalla profonda necessità degli esseri umani di trovare una forma stabile di compagnia o da un loro presupposto subcosciente, ossia dal presupposto che le osservazioni ottenute mediante un meccanismo di calcolo siano dotate delle qualità di certezza indiscutibile e di universalità indubbia.
Questo presupposto, tuttavia, è azzardato, come dimostra l’esame dei limiti intrinseci del calcolo stesso. L’intelligenza artificiale usa delle operazioni algebriche da effettuarsi secondo una sequenza logica (per esempio, se il valore di X è superiore a quello di Y, moltiplica X per Y; altrimenti dividi X per Y). Questo metodo di calcolo – il cosiddetto “algoritmo” – non è dotato né di oggettività né di neutralità [9]. Essendo infatti basato sull’algebra, può esaminare solo realtà formalizzate in termini numerici [10].
Non va dimenticato, inoltre, che gli algoritmi disegnati per risolvere problemi molto complessi sono così sofisticati da rendere arduo agli stessi programmatori la comprensione esatta del come essi riescano a raggiungere i loro risultati. Questa tendenza alla sofisticazione rischia di accelerarsi notevolmente con l’introduzione di computer quantistici che non opereranno con circuiti binari (semiconduttori o microchip), ma secondo le leggi, alquanto articolate, della fisica quantistica. D’altronde, la continua introduzione di microchip sempre più performanti è diventata già una delle cause del predominio dell’uso dell’intelligenza artificiale da parte delle poche nazioni che ne sono dotate.
Sofisticate o meno che siano, la qualità delle risposte che i programmi di intelligenza artificiale forniscono dipendono in ultima istanza dai dati che essi usano e come da questi ultimi vengono strutturati.
Mi permetto di segnalare, infine, un ultimo ambito in cui emerge chiaramente la complessità del meccanismo della cosiddetta intelligenza artificiale generativa (Generative Artificial Intelligence). Nessuno dubita che oggi sono a disposizione magnifici strumenti di accesso alla conoscenza che permettono persino il self-learning e il self-tutoring in una miriade di campi. Molti di noi sono rimasti colpiti dalle applicazioni facilmente disponibili on-line per comporre un testo o produrre un’immagine su qualsiasi tema o soggetto. Particolarmente attratti da questa prospettiva sono gli studenti che, quando devono preparare degli elaborati, ne fanno un uso sproporzionato.
Questi alunni, che spesso sono molto più preparati e abituati all’uso dell’intelligenza artificiale dei loro professori, dimenticano, tuttavia, che la cosiddetta intelligenza artificiale generativa, in senso stretto, non è propriamente “generativa”. Quest’ultima, in verità, cerca nei big data delle informazioni e le confeziona nello stile che le è stato richiesto. Non sviluppa concetti o analisi nuove. Ripete quelle che trova, dando loro una forma accattivante. E più trova ripetuta una nozione o una ipotesi, più la considera legittima e valida. Più che “generativa”, essa è quindi “rafforzativa”, nel senso che riordina i contenuti esistenti, contribuendo a consolidarli, spesso senza controllare se contengano errori o preconcetti.
In questo modo, non solo si corre il rischio di legittimare delle fake news e di irrobustire il vantaggio di una cultura dominante, ma di minare altresì il processo educativo in nuce. L’educazione che dovrebbe fornire agli studenti la possibilità di una riflessione autentica rischia di ridursi a una ripetizione di nozioni, che verranno sempre di più valutate come inoppugnabili, semplicemente in ragione della loro continua riproposizione [11].
Rimettere al centro la dignità della persona in vista di una proposta etica condivisa
A quanto già detto va ora aggiunta un’osservazione più generale. La stagione di innovazione tecnologica che stiamo attraversando, infatti, si accompagna a una particolare e inedita congiuntura sociale: sui grandi temi del vivere sociale si riesce con sempre minore facilità a trovare intese. Anche in comunità caratterizzate da una certa continuità culturale, si creano spesso accesi dibattiti e confronti che rendono difficile produrre riflessioni e soluzioni politiche condivise, volte a cercare ciò che è bene e giusto. Oltre la complessità di legittime visioni che caratterizzano la famiglia umana, emerge un fattore che sembra accomunare queste diverse istanze. Si registra come uno smarrimento o quantomeno un’eclissi del senso dell’umano e un’apparente insignificanza del concetto di dignità umana [12]. Sembra che si stia perdendo il valore e il profondo significato di una delle categorie fondamentali dell’Occidente: la categoria di persona umana. Ed è così che in questa stagione in cui i programmi di intelligenza artificiale interrogano l’essere umano e il suo agire, proprio la debolezza dell’ethosconnesso alla percezione del valore e della dignità della persona umana rischia di essere il più grande vulnus nell’implementazione e nello sviluppo di questi sistemi. Non dobbiamo dimenticare infatti che nessuna innovazione è neutrale. La tecnologia nasce per uno scopo e, nel suo impatto con la società umana, rappresenta sempre una forma di ordine nelle relazioni sociali e una disposizione di potere, che abilita qualcuno a compiere azioni e impedisce ad altri di compierne altre. Questa costitutiva dimensione di potere della tecnologia include sempre, in una maniera più o meno esplicita, la visione del mondo di chi l’ha realizzata e sviluppata.
Questo vale anche per i programmi di intelligenza artificiale. Affinché questi ultimi siano strumenti per la costruzione del bene e di un domani migliore, debbono essere sempre ordinati al bene di ogni essere umano. Devono avere un’ispirazione etica.
La decisione etica, infatti, è quella che tiene conto non solo degli esiti di un’azione, ma anche dei valori in gioco e dei doveri che da questi valori derivano. Per questo ho salutato con favore la firma a Roma, nel 2020, della Rome Call for AI Ethics [13] e il suo sostegno a quella forma di moderazione etica degli algoritmi e dei programmi di intelligenza artificiale che ho chiamato “algoretica” [14]. In un contesto plurale e globale, in cui si mostrano anche sensibilità diverse e gerarchie plurali nelle scale dei valori, sembrerebbe difficile trovare un’unica gerarchia di valori. Ma nell’analisi etica possiamo ricorrere anche ad altri tipi di strumenti: se facciamo fatica a definire un solo insieme di valori globali, possiamo però trovare dei principi condivisi con cui affrontare e sciogliere eventuali dilemmi o conflitti del vivere.
Per questa ragione è nata la Rome Call: nel termine “algoretica” si condensano una serie di principi che si dimostrano essere una piattaforma globale e plurale in grado di trovare il supporto di culture, religioni, organizzazioni internazionali e grandi aziende protagoniste di questo sviluppo.
La politica di cui c’è bisogno
Non possiamo, quindi, nascondere il rischio concreto, poiché insito nel suo meccanismo fondamentale, che l’intelligenza artificiale limiti la visione del mondo a realtà esprimibili in numeri e racchiuse in categorie preconfezionate, estromettendo l’apporto di altre forme di verità e imponendo modelli antropologici, socio-economici e culturali uniformi. Il paradigma tecnologico incarnato dall’intelligenza artificiale rischia allora di fare spazio a un paradigma ben più pericoloso, che ho già identificato con il nome di “paradigma tecnocratico” [15]. Non possiamo permettere a uno strumento così potente e così indispensabile come l’intelligenza artificiale di rinforzare un tale paradigma, ma anzi, dobbiamo fare dell’intelligenza artificiale un baluardo proprio contro la sua espansione.
Ed è proprio qui che è urgente l’azione politica, come ricorda l’Enciclica Fratelli tutti. Certamente «per molti la politica oggi è una brutta parola, e non si può ignorare che dietro questo fatto ci sono spesso gli errori, la corruzione, l’inefficienza di alcuni politici. A ciò si aggiungono le strategie che mirano a indebolirla, a sostituirla con l’economia o a dominarla con qualche ideologia. E tuttavia, può funzionare il mondo senza politica? Può trovare una via efficace verso la fraternità universale e la pace sociale senza una buona politica?» [16].
La nostra risposta a queste ultime domande è: no! La politica serve! Voglio ribadire in questa occasione che «davanti a tante forme di politica meschine e tese all’interesse immediato […] la grandezza politica si mostra quando, in momenti difficili, si opera sulla base di grandi principi e pensando al bene comune a lungo termine. Il potere politico fa molta fatica ad accogliere questo dovere in un progetto di Nazione e ancora di più in un progetto comune per l’umanità presente e futura» [17].
Gentili Signore, illustri Signori!
Questa mia riflessione sugli effetti dell’intelligenza artificiale sul futuro dell’umanità ci conduce così alla considerazione dell’importanza della “sana politica” per guardare con speranza e fiducia al nostro avvenire. Come ho già detto altrove, «la società mondiale ha gravi carenze strutturali che non si risolvono con rattoppi o soluzioni veloci meramente occasionali. Ci sono cose che devono essere cambiate con reimpostazioni di fondo e trasformazioni importanti. Solo una sana politica potrebbe averne la guida, coinvolgendo i più diversi settori e i più vari saperi. In tal modo, un’economia integrata in un progetto politico, sociale, culturale e popolare che tenda al bene comune può “aprire la strada a opportunità differenti, che non implicano di fermare la creatività umana e il suo sogno di progresso, ma piuttosto di incanalare tale energia in modo nuovo” (Laudato si’, 191)» [18].
Questo è proprio il caso dell’intelligenza artificiale. Spetta ad ognuno farne buon uso e spetta alla politica creare le condizioni perché un tale buon uso sia possibile e fruttuoso.
Grazie.
NOTE
[1] Messaggio per la LVII Giornata Mondiale della Pace del 1° gennaio 2024, 1.
[2] Cfr ibid.
[3] Cfr ivi, 2.
[4] Questa ambivalenza fu già scorta da Papa San Paolo VI nel suo Discorso al personale del “Centro Automazione Analisi Linguistica” dell’Aloysianum, del 19 giugno 1964.
[5] Cfr A. Gehlen, L’uomo. La sua natura e il suo posto nel mondo, Milano 1983, 43.
[6] Lett. enc Laudato si’ (24 maggio 2015), 102-114.
[7] Cfr Messaggio per la LVII Giornata Mondiale della Pace del 1° gennaio 2024, 3.
[8] Le intuizioni di Marshall McLuhan e di John M. Culkin sono particolarmente pertinenti alle conseguenze dell’uso dell’intelligenza artificiale.
[9] Cfr Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.
[10] Cfr Messaggio per la LVII Giornata Mondiale della Pace del 1° gennaio 2024, 4.
[11] Cfr ivi, 3 e 7.
[12] Cfr Dicastero per la Dottrina della Fede, Dichiarazione Dignitas infinita circa la dignità umana (2 aprile 2024).
[13] Cfr Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.
[14] Cfr Discorso ai partecipanti al Convegno “Promoting Digital Child Dignity – From Concet to Action”, 14 novembre 2019; Discorso ai partecipanti alla Plenaria della Pontificia Accademia per la Vita, 28 febbraio 2020.
[15] Per una più ampia esposizione, rimando alla mia Lettera Enciclica Laudato si’ sulla cura della casa comune del 24 maggio 2015.
[16] Lettera enc. Fratelli tutti sulla fraternità e l’amicizia sociale (3 ottobre 2020), 176.
[17] Ivi, 178.
[18] Ivi, 179.
#sapevatelo2024