DIOCESI DI TRIESTE
Intervento del Vescovo
per l'incontro-intervista con i giornalisti
in occasione della memoria liturgica di
San Francesco di Sales
Patrono dei giornalisti e degli operatori dei media
✠ Enrico Trevisi
Trieste, 24 gennaio 2024
Il Papa, nel messaggio per la giornata della pace del 1 gennaio 2024, ha parlato di “Intelligenza artificiale e pace”. L’argomento è intrigante, e a maggior ragione per noi che ci troviamo alla vigilia della Settimana sociale dei cattolici in cui si parla di democrazia e di partecipazione.
Anzitutto riprendo alcuni passi di questo messaggio del Papa.
La Sacra Scrittura attesta che Dio ha donato agli uomini il suo Spirito affinché abbiano «saggezza, intelligenza e scienza in ogni genere di lavoro» (Es 35,31). L’intelligenza è espressione della dignità donataci dal Creatore, che ci ha fatti a sua immagine e somiglianza (cfr Gen 1,26) e ci ha messo in grado di rispondere al suo amore attraverso la libertà e la conoscenza. La scienza e la tecnologia manifestano in modo particolare tale qualità fondamentalmente relazionale dell’intelligenza umana: sono prodotti straordinari del suo potenziale creativo… (n.1).
Sottolineo che l’immagine e somiglianza dell’uomo a Dio sta nel combinato di libertà e conoscenza/intelligenza. Siamo chiamati a onorare questo tatto peculiare della nostra umanità.
Appena dopo il Papa da una parte mostra la riconoscenza e dall’altra esprime preoccupazione per il grande potere del progresso tecnico-scientifico.
I notevoli progressi delle nuove tecnologie dell’informazione, specialmente nella sfera digitale, presentano dunque entusiasmanti opportunità e gravi rischi, con serie implicazioni per il perseguimento della giustizia e dell’armonia tra i popoli. È pertanto necessario porsi alcune domande urgenti. Quali saranno le conseguenze, a medio e a lungo termine, delle nuove tecnologie digitali? E quale impatto avranno sulla vita degli individui e della società, sulla stabilità internazionale e sulla pace? (n.1).
Il mondo sarà radicalmente trasformato dai nuovi strumenti digitali: interazioni, pubblica amministrazione, produzione e consumi, comunicazione… tutto sarà modificato.
le tecnologie che impiegano una molteplicità di algoritmi possono estrarre, dalle tracce digitali lasciate su internet, dati che consentono di controllare le abitudini mentali e relazionali delle persone a fini commerciali o politici, spesso a loro insaputa, limitandone il consapevole esercizio della libertà di scelta. Infatti, in uno spazio come il web, caratterizzato da un sovraccarico di informazioni, possono strutturare il flusso di dati secondo criteri di selezione non sempre percepiti dall’utente (n.2).
Occorre essere chiari: la ricerca scientifica e l’applicazione tecnologica non sono disincarnate dalla realtà ed eticamente neutrali. Per intelligenza artificiale intendiamo forme diversificate di intelligenze per le quali le macchine imitano, simulano, riproducono le capacità cognitive dell’uomo e dunque apprendono e risolvono problemi ma con un’accresciuta capacità di comparazione dei dati.
Ma è evidente che il risultato dipende non solo dalla progettazione (del sistema di base) ma anche dagli obiettivi, dagli interessi di chi sta dietro a tali tecnologie. Non ci sono solo sfide tecniche, ma anche antropologiche, sociali, politiche, educative…
Dunque ci troviamo di fronte ad una galassia di intelligenze artificiali che esigono un esame critico: non si può presumere che sempre siano volte al bene dell’umanità, rispettando i valori umani fondamentali (es. l’inclusione, la sicurezza, l’equità, la riservatezza…) (n. 2).
Questa frontiera tecnologica di fatto è dominata dalle cosiddette Big Tech (Microsoft, Google, Meta, Apple, Amazon a cui si aggiunge Ndivia per processori e schede pc). Ci promettono le applicazioni più utili e affascinanti. Ma sappiamo che sono imprese per il profitto, e anzi con un modello che si chiama transumanesimo che mira alla costituzione di un umanoide che mescoli insieme le nostre cellule staminali con l’intelligenza artificiale. Su questo ha parlato anche Stefano Zamagni nel suo ultimo intervento qui a Trieste all’Università.
Quello che si denuncia è la distanza enorme di conoscenze tra i ricercatori / amministratori Big Tech e i cittadini e i loro politici, parlamenti, governi. Di fatto da quando Open AI (l’organizzazione che vorrebbe promuovere e sviluppare un’intelligenza artificiale amichevole) ha messo a disposizione la versione gratuita ChatGPT ci si è resi conto che la fantascienza è realtà. Con pregi e pericoli, anche per l’umanità e la democrazia.
Da qui la necessità di istituire autorità competenti organismi capaci di guidare questo processo innovativo per tutelare i diritti di tutti e cogliere le questioni etiche che via via emergono. Ma anche la necessità di orientare la ricerca tecnico-scientifica per il perseguimento della pace e del bene comune universale.
L’Unione Europea sta provando a intervenire, ma la strada è complessa. Di fatto si reputano inaccettabili diverse applicazioni. Es. quello chiamato di “polizia predittiva” cioè la preventiva individuazione di persone potenzialmente criminali per i loro profili sociali (per cui i bambini sarebbero già classificati fin da piccoli in base alla famiglia di origine e all’etnia); così anche l’identificazione biometrica in tempo reale da parte sella polizia durante le manifestazioni; il riconoscimento delle emozioni delle persone; la classificazione delle persone in base al loro comportamento (“social scoring”: pratica che si pensa già introdotta in certi Paesi).
Ci sono poi altre pratiche che andrebbero regolate: es. l’uso di algoritmi per le assunzioni, per le assicurazioni mediche, per l’accesso al credito, per il controllo dei documenti e per le frontiere, per l’accesso al voto…
Inoltre l’apprendimento automatico dell’intelligenza artificiale è calato dentro la nostra realtà e ne assume i caratteri anche erronei: per esempio può apprendere i pregiudizi, le discriminazioni, gli stereotipi replicandoli e amplificandoli. Una notizia data e ripetuta e amplificata dai social può risultare verosimile-vera semplicemente perché condivisa e letta da molte persone ma può essere del tutto infondata. Ma sappiamo che la smentita delle notizie talvolta è un boomerang. Il rischio è quello di allucinazioni collettive, di campagne di false notizie – false verità, di discriminazioni, di interferenze nelle campagne elettorali… di produzione di materiali falsi ma irriconoscibili.
Che spaventa è la possibilità di “improprie graduatorie dei cittadini” (n. 5) e non solo il fatto che si studino meccanismi per orientare o dissuadere negli acquisti e nei consumi.
Non si deve permettere agli algoritmi di determinare il modo in cui intendiamo i diritti umani, di mettere da parte i valori essenziali della compassione, della misericordia e del perdono o di eliminare la possibilità che un individuo cambi e si lasci alle spalle il passato (n.5).
C’è poi il problema degli armamenti, cioè dell’utilizzo bellico dell’intelligenza artificiale e non solo del fatto che potrebbe cadere nelle mani di gruppi terroristici, ma anche che inevitabilmente sarebbe in mano ad autocrati e dittatori senza scrupoli, come già c’è il rischio delle armi atomiche, batteriologiche e chimiche. E dunque con ricatti universali come già i film di fantascienza ci mostrano.
In un’ottica più positiva, se l’intelligenza artificiale fosse utilizzata per promuovere lo sviluppo umano integrale, potrebbe introdurre importanti innovazioni nell’agricoltura, nell’istruzione e nella cultura, un miglioramento del livello di vita di intere nazioni e popoli, la crescita della fraternità umana e dell’amicizia sociale. In definitiva, il modo in cui la utilizziamo per includere gli ultimi, cioè i fratelli e le sorelle più deboli e bisognosi, è la misura rivelatrice della nostra umanità (n.6).
Da qui il pressante invito ad uno sguardo umano: le questioni etiche vanno considerate da subito nella ricerca e non solo poi nell’applicazione. Serve un dialogo per “uno sviluppo etico degli algoritmi – l’algor-etica –, in cui siano i valori a orientare i percorsi delle nuove tecnologie” (n.6). L’algor-etica (termine coniato da Paolo Benanti, già più volte venuto qui a Trieste) è una frontiera su cui occorre tenere vivo il dibattito: qui i mezzi di comunicazione sociale hanno un ruolo essenziale.
Infine il papa parla di due sfide: quella educativa (e dunque la promozione di un pensiero critico) e quella dello sviluppo del diritto internazionale per l’elaborazione di guide etiche nel campo delle intelligenze artificiali.
Ecco che il campo della comunicazione sociale su questi temi è cruciale. È una vocazione alla verità, all’educare al senso critico, al rispetto delle persone anche nelle loro fragilità ma pure nelle loro possibilità di riscattarsi.
• Siamo nella memoria dei 30anni dalla strage di Montar in cui tre giornalisti della Rai hanno perso la vita per raccontare la realtà della guerra. Onoriamo Marco Luchetta, Alessandro Saša Ota e Dario D’angelo. Ma quanti giornalisti stanno perdendo la vita a Gaza. Un numero impressionante. L’operatore della comunicazione rischia la vita per un bene grande: che è raccontare e comunicare quello che vede, non quello che dicono i potenti di turno.
• Ma quante altre frontiere che infastidiscono i potenti sono da presidiare con professionalità! Questa è la chiamata rivolta a voi tutti.
• La deontologia professionale degli operatori dei mass media è fondamentale, rispetto agli improvvisati comunicatori dei social, che pure stanno prevaricando (molti hanno le informazioni tramite le condivisioni di post senza alcuna autorevolezza). A voi verificare le fonti, la vostra autorevolezza e quella delle vostre testate è fondamentale per la democrazia e per la pace.
• Raccontare la realtà, riferire i discorsi/comizi… ma suggerendo sempre il senso critico. Non ci si può essere acritici megafoni delle idee (magari razziste, xenofobe, con stereotipi ecc. ecc) o delle distorsioni della realtà : nel raccontare occorre con professionalità invitare al senso critico.
Un amico mi ha chiamato per confrontarsi con me perché ha assunto un ex-carcerato, ed è convinto di aver fatto la cosa giusta per dare la possibilità di riscatto a questa persona. Il clima attorno è di sospetto, diffidenza… nei confronti di chi si è preso la responsabilità di assumere l’ex-delinquente. Nessun algoritmo lo avrebbe consentito. Eppure umanamente è possibile dare l’opportunità ad una persona, ad un padre di famiglia, di ridare senso e dignità al suo esistere. Io penso che questo sia il Vangelo.
Io penso che la vulnerabilità umana fa parte della realtà: l’efficienza degli algoritmi farebbe mettere da parte chi è vulnerabile, ma ricordiamoci che anche noi potremmo (per l’età che avanza, le malattie che arrivano, le idee politiche, i comportamenti sociali…) ritrovarci improvvisamente dalla parte di chi è considerato vulnerabile dunque scartato da algoritmi che mirano all’efficienza e al profitto.
Ma all’inizio dicevo che l’essere a immagine e somiglianza di Dio ci rende dotati di intelligenza e libertà. Anche la libertà di rischiare nel prenderci cura di chi è vulnerabile.