Fonte: 123RF

Carichi referti medici su ChatGPT? Stai mettendo a rischio salute e privacy, avverte il Garante. Ecco il motivo

Hai mai caricato un referto su ChatGPT? Potresti aver messo a rischio i tuoi dati e la tua salute. A dare l’allerta è il Garante per la Privacy.

Pubblicato:

Giuseppe Guarino

Giuseppe Guarino

Giornalista

Ph(D) in Diritto Comparato e processi di integrazione e attivo nel campo della ricerca, in particolare sulla Storia contemporanea di America Latina e Spagna. Collabora con numerose testate ed è presidente dell'Associazione Culturale "La Biblioteca del Sannio".

Da quando c’è stata l’esplosione dell’intelligenza artificiale, sono tante le persone che hanno cominciato a caricare dei referti medici su ChatGPT o su altri LLM generativi (pensiamo ad esempio a Gemini di Google, a Grok e a DeepSeek). Anche se sembra essere un’abitudine completamente innocua ma che presenta dei seri rischi, almeno secondo il Garante per la Protezione dei Dati Personali. Scopriamo insieme quali sono.

Cosa si rischia nel caricare un referto medico su un’intelligenza artificiale

Andiamo con ordine e partiamo dal principio. Caricare un referto medico su un’intelligenza artificiale significa, di fatto, condividere informazioni altamente sensibili con delle piattaforme private del tutto impersonali.

Secondo il Garante per la Protezione dei Dati Personali, questi dati possono essere conservati dal sistema per l’addestramento degli algoritmi. Ma, soprattutto, nel momento in cui vengono caricati online, i dati sono automaticamente esposti a rischi di furto e profilazione. Anche il solo upload può renderli immediatamente vulnerabili, specialmente in assenza di garanzie chiare sull’uso e la cancellazione.

L’intelligenza artificiale non è un medico (e non sempre ci azzecca)

I dati, d’altronde, parlano chiaro: sempre più italiani sembrano affidarsi all’IA per avere un aiuto nell’interpretazione dei propri esami medici. Anche su questo punto, però, il Garante segnala un rischio concreto: la possibilità di ricevere dei suggerimenti terapeutici errati.

Le intelligenze artificiali attualmente disponibili non sono dispositivi medici certificati, e possono generare risposte imprecise o addirittura sbagliate, soprattutto se non c’è un controllo umano qualificato che riesca a “rimetterle sui binari”.

Anche perché uno dei problemi noti delle intelligenze generative è la possibilità di generare “allucinazioni”: risposte fornite con sicurezza ma totalmente inventate. In ambito sanitario, questo può significare prendere decisioni gravi – come sospendere una cura – basandosi su dati falsati o interpretazioni sbagliate. Il rischio per la salute è quindi tutt’altro che teorico. Alle “allucinazioni” si affianca la generale “condiscendenza” delle intelligenze artificiali nei confronti dei dati inseriti dall’utente, al quale tenderà a dare perlopiù ragione, come a fare di tutto per confermarne le ipotesi.

Il Garante spiega cosa bisogna (non) fare con l’intelligenza artificiale

Nel suo recente richiamo, il Garante ricorda anche il decalogo 2023 per l’uso dell’intelligenza artificiale in ambito sanitario, sottolineando la necessità di una “supervisione umana qualificata” in ogni fase: dallo sviluppo, all’addestramento, fino all’uso da parte degli utenti. Lo stesso principio è contenuto nel Regolamento europeo sull’intelligenza artificiale e nei pareri del Consiglio Superiore di Sanità.

Il consiglio principale è semplice: non caricare mai dei documenti medici personali o dei tuoi cari su chatbot o assistenti virtuali, a meno che non ci siano garanzie solide sul trattamento dei dati. Queste, spesso, mancano. Ma, ad ogni modo, leggere le informative privacy è fondamentale, così come evitare di prendere decisioni sanitarie senza consultare un medico. L’intelligenza artificiale può essere un supporto, ma non un sostituto della medicina. Se facciamo un bilanciamento tra rischi e benefici, capiamo bene che chiedere un parere sulla nostra pressione alta potrebbe non essere una buona idea. Forse un giorno a curarci saranno davvero i robot, ma quel giorno è ancora lontano.

più popolari su facebook nelle ultime 24 ore

vedi tutti