Skip to main content

Il mantra di questi tempi è che l’intelligenza artificiale promette di rivoluzionare la sanità con diagnosi tempestive e terapie iper-personalizzate.

C’è da chiedersi però: in questa corsa all’efficienza, cosa rischiamo di perdere? Cosa succede quando la medicina smette di ascoltare? Quando il dialogo tra medico e paziente viene mediato, o peggio, sostituito da un algoritmo che processa dati ma non può comprendere il dolore, l’esitazione, la paura.

L’articolo del Guardian di Eric Reinhart (rif. https://www.theguardian.com/us-news/ng- interactive/2025/nov/09/healthcare-artificial-intelligence-ai) offre un potente spunto di riflessione, raccontando storie che mettono in luce i rischi nascosti di cui è fondamentale essere consapevoli (sia come professionisti della salute che come fornitori di soluzioni tecnologiche). Partendo da questa analisi, è utile valutare le ricadute nel contesto italiano ed europeo, dove le sfide etiche e normative richiedono un’attenzione ancora maggiore. Mentre alcuni dei temi affrontati nell’articolo sono ben noti (ad esempio nel caso del bias algoritmico e dell’effetto black box), interessante è il tema della deumanizzazione della cura e del rischio che il medico smetta di ascoltare il paziente e il paziente arrivi già “suggestionato” dal confronto con il proprio “consulente clinico digitale”.

Questo non è un dibattito futuristico; è una sfida attuale. Crediamo sia opportuno quindi soffermarsi su due concetti chiave esplorati dall’articolo – “la perdita del non detto” e la necessità di “riconquistare la cura” – in modo da capire quali sono i veri rischi e tracciare una via per un’innovazione che sia autenticamente al servizio della persona, specialmente nel contesto del nostro Servizio Sanitario Nazionale.

Chiunque di noi abbia avuto l’opportunità di confrontarsi con un buon clinico sa che il cuore pulsante della pratica medica non risiede solo nei dati espliciti – i risultati di un esame, i valori di un’analisi – ma in un universo di segnali sottili che un algoritmo (ancora) non può cogliere. L’articolo del Guardian lo definisce magnificamente come “the loss of the unsaid“, la perdita del non detto. È il tremore nella voce di un paziente mentre descrive un sintomo, l’esitazione prima di rivelare un’ansia, lo sguardo che comunica più di mille parole. Questi sono dati umani, non digitali, fondamentali per una diagnosi completa e per stabilire un rapporto di fiducia. Il rischio più profondo e subdolo evidenziato nell’articolo è che l’interazione con sistemi sanitari sempre più automatizzati possa cambiare il nostro comportamento come pazienti, ossia che, consciamente o meno, inizino a modificare il modo in cui parlano, a semplificare le loro storie, a omettere le sfumature emotive per essere più “comprensibili” a un sistema che ragiona per checklist e parole chiave. Un po’ come auto-censurarsi, fornendo alla macchina solo i dati che pensano essa voglia ricevere, in modo da garantirci una diagnosi efficiente.

Nel contesto italiano, questo fenomeno rappresenta una minaccia diretta al rapporto medico-paziente, un pilastro della nostra cultura sanitaria. La medicina, in Italia, è per tradizione un’arte dell’ascolto, una relazione di fiducia (il “rapporto fiduciario”) costruita sul dialogo. Un sistema che incentiva l’aspetto legato alla digitalizzazione a discapito della relazione non solo impoverisce (“deskilling”) l’atto medico, ma lo rende più fallibile: limitare la capacità di ascolto, di intuizione e di pensiero critico dei professionisti (parlo di medici, infermieri, farmacisti…), stimolare la dipendenza da un supporto algoritmico, rischia di renderli meri supervisori di un processo automatizzato, minacciando il cuore del rapporto medico-paziente, che nella nostra cultura è tradizionalmente fondato sulla fiducia e l’empatia (“rapporto di fiducia”). Un algoritmo può identificare una correlazione statistica in un’immagine diagnostica, ma non può cogliere il contesto di vita del paziente, le sue paure, o quella piccola anomalia nella sua storia che accende l’intuizione del medico esperto. De-umanizzare questo processo significa perdere informazioni diagnostiche cruciali e trasformare la cura in una mera elaborazione di dati, privandola della sua essenza.

True care is not a transaction to be optimized; it is a practice and a relationship to be protected”: la vera cura non è una transazione di dati da ottimizzare, ma una relazione da proteggere.

Di fronte a queste criticità, la soluzione non è rigettare la tecnologia, ma ridefinirne lo scopo. L’articolo del Guardian lancia un potente appello a “reclaiming care“, a riconquistare la cura. L’efficienza promessa dall’IA è stata finora interpretata come un modo per “processare” più pazienti in meno tempo, riducendo il carico di lavoro e il burnout del personale sanitario. Questa è una visione efficiente ma che può risultare distorta e pericolosa. La vera promessa dell’IA dovrebbe essere l’esatto opposto: liberare i medici dalla tirannia della burocrazia.

Pensiamo alla realtà del nostro Servizio Sanitario Nazionale: i medici (e gli operatori sanitari in genere) sono sommersi da adempimenti burocratici, dalla compilazione di cartelle cliniche elettroniche farraginose alla gestione di pratiche amministrative (basti pensare agli adempimenti in farmacia ad es. per la DPC). Questo è il tempo che viene sottratto all’ascolto, alla visita, al dialogo con il paziente. È qui che l’IA può essere rivoluzionaria. Immaginiamo algoritmi capaci di automatizzare la trascrizione dei colloqui, di pre-compilare la documentazione, di gestire in modo intelligente le agende, liberando minuti preziosi in ogni visita. Questo tempo “riconquistato” non deve essere riempito con un’altra visita, ma reinvestito nella relazione umana. Un’IA progettata con questo scopo – aumentare il tempo di cura, non il numero di pazienti – trasforma la tecnologia da potenziale minaccia a potente alleato. Permette al medico di alzare lo sguardo dallo schermo del computer e di tornare a guardare il paziente negli occhi. Permette di fare quella domanda in più, di approfondire un dubbio, di offrire una parola di conforto. In questo modello, l’IA non sostituisce l’umano, ma ne potenzia le capacità più importanti: l’empatia, il pensiero critico e la capacità di ascoltare il “non detto”.

L’analisi del Guardian ci serve da monito e da guida. L’obiettivo non è costruire l’IA più potente, ma quella più saggia. Per un’azienda come Qwince, la sfida non è solo tecnologica, ma etica e culturale. Significa progettare sistemi, come ConCura, che non cercano di sostituire il giudizio umano, ma di potenziarlo. Significa creare strumenti che automatizzano le scartoffie, non le relazioni. La vera innovazione nella sanità digitale non sarà misurata dalla velocità degli algoritmi, ma dalla qualità del tempo che riusciremo a restituire alla cura, in modo da dare a tutti la possibilità di aumentare le proprie capacità (“Soon, not using AI to help determine diagnoses or treatments could be seen as malpractice” [Craig Spencer]). Dobbiamo usare la tecnologia per riconquistare la dimensione più preziosa della medicina: quella umana.