ChatGpt? “Non è pronto per la telemedicina”, ecco perché

(Adnkronos) – ChatGpt, “forma avanzata di intelligenza artificiale conversazionale”, può essere arruolato nel mondo della telemedicina? Oggi no, ma le sue potenzialità sono destinate a crescere e in futuro potrebbe ritagliarsi uno spazio. Certo, in questo preciso momento, nonostante i riflettori dei media siano puntati su di lui e sui ‘successi’ accumulati in più campi, “non è pronto”, se non per ruoli minori, come per esempio aiutare i camici bianchi a tradurre il ‘medichese’ e a rendere le note cliniche più chiare e semplici da capire per tutti. A evidenziare all’Adnkronos Salute i limiti attuali e le possibili evoluzioni di ChatGpt è Eugenio Santoro, responsabile del Laboratorio di informatica medica dell’Istituto di ricerche farmacologiche Mario Negri di Milano.  

L’esperto di Digital Health ha anche interagito con ChatGpt e ha potuto constatarne ‘l’indole un po’ bugiarda’ che al momento ha. Nel senso che, se non conosce la risposta, “mente sapendo di mentire e mente bene, perché non ti dice che non sa, ma si lancia in una risposta a caso”, sorride Santoro, che tiene a una premessa: “E’ importante chiarire – osserva – che l’intelligenza artificiale in ambito sanitario è altro, non è ChatGpt in questo momento. E’ qualcosa di molto più strutturato, su cui c’è tanta ricerca, su cui alcune prove di efficacia ci sono. Non vanno tutte nella stessa direzione, ma c’è un movimento solido di ricerca e si parla di cose concrete. Si parla di sistemi che analizzano una grande mole di dati e riescono a trovare relazioni fra causa ed effetto, ma anche solo dell’aspetto diagnostico, che è l’area sulla quale si sta lavorando molto in questo momento: esistono sistemi che forniscono delle diagnosi affidabili tanto quanto quelle offerte dai medici, anche i più esperti. Ci sono ancora dei limiti per un’introduzione formale di questi strumenti nel percorso assistenziale, però ci si sta arrivando pian piano”.  

Quanto a ChatGpt, “molti lo confondono con un sistema di machine learning tradizionale, che impara da contenuti che potrebbero essere gli articoli scientifici piuttosto che altre fonti. In realtà non è proprio così. ChatGpt non è il classico sistema di machine learning, è un sistema di language model: si basa esclusivamente sul linguaggio ed è addestrato con tecniche comunque di machine learning, ma per prevedere esclusivamente la probabilità di una data sequenza di parole, in base al contesto di quelle che la precedono. Sceglie frasi che hanno più probabilità di avere un senso logico rispetto a ciò che lui ha studiato”. 

Ma tutto questo “non c’entra nulla con la contestualizzazione – sottolinea Santoro – ChatGpt non va a prendere gli articoli scientifici come riferimento, non va a esaminarne i contenuti per poterli carpire, sintetizzare e interpretare e dare una risposta sulla base di quei contenuti. E questo è un grosso limite in ambito medico e sanitario dove la conoscenza prodotta fino a quel momento è la base fondamentale su cui prendere le decisioni”. E infatti “pochi in questo momento lo stanno suggerendo come un sistema di chatbot per rispondere ai quesiti dei pazienti e dar loro supporto, in stile Babylon”, app che ha un chatbot istruito con il machine learning tradizionale basato sulle fonti, “e ancora meno sono quelli che suggeriscono ChatGpt per fare assistenza nella diagnosi o anche solo per fornire informazioni sui farmaci”.  

I limiti – Quali sono i limiti di ChatGpt? Santoro fa qualche esempio da lui sperimentato: “Quando ChatGpt è stato interrogato per scoprire se c’è una qualche relazione fra quante volte un tweet è pubblicato e la probabilità che l’articolo scientifico a cui il tweet si riferisce sia citato in letteratura, lui ha risposto che esistono delle relazioni di questo genere. Ora, chi conosce la letteratura sa che non esistono. E quando ho chiesto di darmi i riferimenti bibliografici di questo, lui mi ha dato dei riferimenti inventati. O meglio i riferimenti bibliografici erano reali, ma portavano ad articoli scientifici che nulla c’entravano con l’argomento”. Ed è successo più volte. “Se questa cosa la applichiamo all’ambito sanitario, si capisce bene quanto sia pericolosa”. 

Ciò non vuol dire che non ci sia un tentativo di coinvolgere questi strumenti nel settore. Al momento “c’è qualcuno che sta suggerendo ChatGpt come strumento che possa generare note cliniche e rapporti sulla base di dati forniti dagli operatori sanitari – dice Santoro – c’è per esempio una clinica virtuale, che si chiama Ansible Health, che ha cominciato a utilizzarlo all’interno dei propri flussi lavorativi, per esempio per verificare i referti radiologici e produrre spiegazioni che siano facili da capire. Il grosso problema di chi scrive referti è che è ancorato al ‘medichese’. Allora l’idea di produrre dei report con ChatGpt in modo che siano più chiari e utilizzino un linguaggio più comprensibile può essere un’area di reale supporto in questo momento. Loro lo stanno sperimentando in questo modo e i danni che potrebbe commettere non sono così elevati in questa modalità”.  

Passa l’esame ma ecco perché non può fare il medico – Poi, prosegue Santoro, “è vero che ChatGpt è stato messo alla prova per diventare medico e l’esame l’ha superato. Ma gli stessi ricercatori dicono che non è uno strumento che può ‘fare il medico’, può semmai aiutare i medici a formarsi. Quindi di nuovo uno strumento a supporto della didattica e non delle prese di decisione. Questo quantomeno fino a quando a questo strumento non aggancino strumenti altrettanto intelligenti, ma che vanno poi sui contenuti, fanno una sintesi e un’interpretazione dei contenuti, delle linee guida delle pubblicazioni scientifiche, dei protocolli. Tutto quello che serve per prendere decisioni. E io immagino lo faranno presto”.  

“L’unione dei due sistemi – conclude – può a quel punto essere effettivamente un’arma, potrebbe essere una cosa interessante sulla quale lavorare e sperimentare”. 

(Adnkronos)