
Dal MEET di Milano una riflessione su etica e salute: la tecnologia può aiutare, ma solo se resta al servizio dell’uomo.
L’evento
Qualche giorno fa, al MEET Digital Culture Center di Milano, si è tenuto un incontro dedicato al
tema dell’intelligenza artificiale, con attenzione al suo impiego in ambito sanitario e in particolare
in quello psicologico. Sono intervenuti Davide Baventore, vicepresidente dell’Ordine degli
Psicologi della Lombardia, Layla Pavone, del Board per l’Innovazione del Comune di Milano, il
prof. Ruben Razzante, docente di Diritto dell’informazione all’Università Cattolica, e Walter
Riviera, ingegnere esperto di intelligenza artificiale.
Non è stato il solito evento celebrativo sulla “rivoluzione digitale”. È stato piuttosto un momento di
riflessione critica su cosa significhi introdurre algoritmi in settori tanto delicati come quello della
salute, dove la dimensione umana, relazionale e affettiva non è un accessorio, ma la base stessa di
ogni processo di cura. In ambito psicologico, ad esempio, si ribadisce spesso che non è il modello
che cura, ma la relazione terapeutica: quella connessione viva tra persone che permette di
accogliere, comprendere, elaborare e superare la sofferenza.
Il caso limite: quando l’AI facilita il suicidio
Durante il dibattito è stato citato un caso estremo ma emblematico: esistono già situazioni
documentate in cui sistemi di intelligenza artificiale, progettati per offrire sostegno psicologico,
hanno facilitato o comunque non impedito intenti suicidari. Ad esempio, nel 2023, in Belgio, un
uomo si è tolto la vita dopo aver intrattenuto per settimane conversazioni confidenziali con un chatbot che non solo non ha allertato nessuno, ma ha finito per alimentare il suo stato di disperazione.
Anche in Italia si sono registrati casi preoccupanti: giovani in crisi hanno cercato aiuto attraverso
chatbot che, incapaci di cogliere la gravità della situazione, hanno fornito risposte generiche o inadeguate, senza attivare alcun protocollo di emergenza. Persone che cercavano un contatto umano hanno trovato solo gelidi algoritmi, programmati per sembrare comprensivi ma incapaci di
riconoscere quando qualcuno sta chiedendo disperatamente aiuto.
Non è fantascienza: è già realtà. E questo pone un inevitabile interrogativo. Chi è responsabile quando un algoritmo contribuisce a un danno così grave? L’azienda che lo ha
sviluppato? Chi lo ha addestrato? Chi lo utilizza? O chi lo diffonde senza un’adeguata gestione? Dietro queste domande non c’è timore del progresso, ma la coscienza che la cura, per essere tale, richiede la presenza e la sensibilità dell’essere umano. La tecnologia, se non ben regolata,
amministrata e supervisionata da personale specializzato, rischia di divenire un freddo surrogato,
incapace di cogliere la fragilità che ogni relazione di supporto o terapeutica racchiude.
Conoscenza, vigilanza, senso critico
Uno dei messaggi più forti emersi dall’incontro è stato chiaro: non si può essere spettatori passivi.
La frase “o mi evolvo o mi estinguo” non vale solo per le specie viventi, ma anche per un movimento, un’impresa, un popolo o una nazione.
Comprendere, modernizzare le conoscenze, aggiornarsi ed esercitare senso critico non sono lussi intellettuali: sono necessità civiche. Perché se non si conoscono gli strumenti che entrano nella vita di tutti i giorni – e soprattutto nella vita delle persone più fragili – si finisce per subirli, anziché
governarli.
E qui si apre il punto politico centrale.
Pubblico o privato: chi costruisce l’AI che entra nella cura?
Walter Riviera ha posto una questione cruciale: tutti si sentirebbero più tutelati se i sistemi di
intelligenza artificiale fossero sviluppati da enti pubblici, mossi da interesse collettivo, trasparenza e
controllo da parte della collettività.
Un sistema pubblico, infatti, potrebbe individuare più tempestivamente disservizi, distorsioni o
errori nei dati – i cosiddetti bias, cioè pregiudizi impliciti nei modelli di apprendimento – e correggerli. Ci sarebbe così maggiore responsabilità condivisa e la possibilità di intervenire in modo rapido ed efficace.
Diversamente, oggi, la maggior parte dei sistemi di intelligenza artificiale è prodotta da aziende
private, con logiche di mercato, algoritmi proprietari e dati non accessibili, e pertanto non chiari e verificabili.
È la stessa logica che da anni indebolisce la sanità pubblica: quando la cura diventa prodotto, chi ne
guadagna non è chi soffre e ne ha bisogno, ma chi la pianifica e la vende.
Per questa ragione, come già sostenuto in altri interventi e articoli, occorre ripensare la sanità pubblica e considerarla come una sorta di investimento sociale, capace di coniugare competenza,
tecnologia e umanità. Proprio come per l’intelligenza artificiale applicata alla salute, sia in ambito psichico che fisico, deve essere uno strumento per il bene comune, non un mercato di dati e servizi.
Il rischio delle distorsioni algoritmiche
Gli algoritmi non sono neutrali: riflettono i dati e le scelte di chi li ha progettati.
Se i dati sono parziali, le risposte lo saranno altrettanto.
Un esempio: un algoritmo progettato per rilevare sintomi depressivi potrebbe essere addestrato
principalmente su manifestazioni che includono espressioni verbali esplicite di tristezza, perdita di
interesse, senso di colpa. Tuttavia, la sofferenza psichica può manifestarsi in modi molto diversi da
persona a persona e da contesto a contesto: alcune persone esprimono il disagio soprattutto
attraverso sintomi fisici come mal di testa persistenti, dolori diffusi, stanchezza cronica. Un algoritmo che non tiene conto di questa variabilità rischia di non riconoscere questi segnali,
lasciando senza supporto proprio chi ne avrebbe più bisogno.
In ambito medico, un sistema che valuta il rischio cardiovascolare basandosi prevalentemente su
dati maschili può sottostimare i sintomi nelle donne, che spesso manifestano l’infarto in modo diverso.
Un algoritmo addestrato su immagini di soggetti di pelle chiara può, per esempio, riconoscere meno
accuratamente i melanomi su pelli più scure.
Un chatbot allenato su un’unica lingua o cultura può non comprendere segnali di disagio psichico che si manifesta attraverso molteplici modalità.
Quando si parla di cura, tutto questo è inammissibile: ogni intervento deve essere universale, equo e
accessibile a tutti. E gli strumenti tecnologici che la supportano devono rispettare gli stessi principi.
Una questione politica, non solo tecnica
Governare l’evoluzione tecnologica significa compiere scelte politiche.
Vuol dire decidere se l’intelligenza artificiale in ambito sanitario deve essere un bene comune o un
prodotto di mercato; se deve essere trasparente o meno; se deve rispondere a criteri di salute pubblica o di profitto.
Come Partito Socialista Italiano, la convinzione è chiara: la salute – fisica, psichica e sociale – è un diritto universale, non un privilegio per pochi. E ogni forma di conoscenza deve essere un bene accessibile e pubblico, non un vantaggio raggiungibile solo da chi ha più possibilità, mezzi o potere. Per questo serve un’AI pubblica, regolata da principi etici, sottoposta a controlli indipendenti,
progettata per il benessere collettivo, non per il guadagno.
Come del resto serve una sanità pubblica forte, accessibile e umana, che garantisca a tutti le migliori
cure possibili, senza eccezioni.
Governare il cambiamento, o esserne governati
L’intelligenza artificiale non è il futuro: è il presente.
È già entrata nelle nostre esistenze e nelle istituzioni, spesso senza che se ne comprendano davvero
le implicazioni. Si può subirla, lasciando che siano gli interessi economici e le grandi piattaforme a decidere come
verrà usata.
Oppure si può scegliere di governarla, con strumenti pubblici, coordinati, responsabili e condivisi.
Ogni volta che si usa un servizio digitale gratuito, bisognerebbe chiedersi: se non si sta pagando,
cosa si sta offrendo in cambio?
La risposta, quasi sempre, è: i propri dati. E con essi informazioni dettagliate: quali sintomi si
cercano online alle tre di notte, quali farmaci interessano, quali fragilità psicologiche si manifestano, quali paure si condividono con un chatbot credendo sia una conversazione privata. Dati che, aggregati e analizzati, diventano profili vendibili, previsioni di comportamento, target
pubblicitari personalizzati e molto altro.
Ebbene, la politica esiste anche per questo: per garantire che il progresso non diventi dominio.
L’intelligenza artificiale è una delle grandi sfide del nostro tempo, e riguarda tutti.
O impariamo a governare il cambiamento, o il cambiamento – cieco e impersonale – finirà per
governare noi.
Cesare Marangiello, PSI Milano
