E-Mail: [email protected]
- Il garante multa OpenAI di 15 milioni di euro per chatGPT.
- 823 segnalazioni per revenge porn, quasi il triplo.
- Mai-DxO diagnostica correttamente l'85,5% dei casi clinici complessi.
Il Garante per la Protezione dei Dati Personali ha lanciato un allarme riguardo una pratica sempre più diffusa: sottoporre referti medici a modelli di intelligenza artificiale. L’autorità evidenzia come questa pratica comporti maggiori svantaggi che benefici per la salute dei pazienti. I pericoli principali riguardano la tutela dei dati personali e l’interpretazione potenzialmente errata dei referti.
L’immissione di referti medici in rete espone gli individui alla profilazione da parte di aziende tramite _web scraping_ e, nel peggiore dei casi, al furto di identità. Le informazioni personali potrebbero finire nelle mani di malintenzionati. Un rischio ancora più grave è rappresentato dall’errata interpretazione dei referti da parte dell’IA. Molti utenti si affidano all’intelligenza artificiale per ottenere suggerimenti su terapie e trattamenti, anziché consultare professionisti medici. Tale condotta può compromettere gravemente la salute degli individui, con possibili esiti estremamente gravi.
Il Garante esorta gli utenti a riflettere attentamente sull’opportunità di condividere informazioni sanitarie con i fornitori di servizi di intelligenza artificiale generativa e a non fidarsi ciecamente delle risposte generate automaticamente, le quali andrebbero sempre convalidate da un medico. Nonostante la mancanza di dati quantitativi ufficiali, il Garante indica di aver ricevuto numerose segnalazioni, probabilmente da professionisti del settore.
Piattaforme di IA, come ChatGPT, consentono di caricare documenti medici che vengono processati rapidamente, senza alcuna supervisione umana. Il Garante suggerisce di esaminare attentamente le politiche sulla privacy delle piattaforme per accertarsi se i dati vengano eliminati dopo l’uso o mantenuti per l’addestramento degli algoritmi. È cruciale rammentare che le intelligenze artificiali attualmente accessibili al pubblico non possiedono la certificazione di dispositivi medici. Le informazioni fornite potrebbero risultare inesatte o sbagliate, specialmente se interpretate senza il consiglio di un professionista sanitario. Le “allucinazioni” dell’IA, ovvero risposte errate presentate come affidabili, rappresentano un rischio concreto. Un individuo potrebbe prendere decisioni mediche di rilievo, come interrompere una terapia, basandosi su indicazioni generate autonomamente da un chatbot.
Il Garante richiama il decalogo del 2023 per l’utilizzo dell’IA in ambito sanitario, mettendo in risalto l’importanza di assicurare una “supervisione umana qualificata” in ogni stadio del ciclo di vita dei sistemi di IA, dalla loro concezione all’addestramento fino all’impiego effettivo. Questo principio è altresì consolidato dal Regolamento europeo sull’intelligenza artificiale e dal Consiglio Superiore di Sanità.
Interventi del Garante Privacy nel 2024: Un Anno di Sfide per l’Intelligenza Artificiale
La Relazione sull’attività del 2024 del Garante della Privacy evidenzia il ruolo sempre più determinante dell’Autorità nella protezione dei dati personali di fronte ai rischi derivanti dall’avanzamento dei sistemi di Intelligenza Artificiale. Il 2024 è stato un anno di conferma dell’IA in ogni settore, e l’Authority è impegnata nella ricerca di soluzioni per conciliare la necessità di informazioni di questa tecnologia con i diritti della persona.
Nel corso dell’anno, il Garante ha ultimato l’indagine su ChatGPT, intimando a OpenAI una campagna di sensibilizzazione e l’erogazione di una penalità di *15 milioni di euro. Un’intimazione formale è stata indirizzata a un importante gruppo editoriale italiano, evidenziando il potenziale rischio per milioni di individui connesso alla possibile cessione a OpenAI dei dati personali presenti nell’archivio del quotidiano per l’allenamento degli algoritmi.
Un intervento particolarmente delicato ha riguardato i dati biometrici e i sistemi di riconoscimento facciale. Il Garante ha ammonito Worldcoin in merito al loro progetto di scansione dell’iride in cambio di criptovalute, a causa della carenza di adeguate salvaguardie e di consapevolezza da parte degli utenti. L’incremento della minaccia dei sistemi di IA per la privacy dei cittadini si estende anche alle informazioni sanitarie. Con due pareri relativi all’Ecosistema Dati Sanitari (EDS) e alla Piattaforma Nazionale sulla Telemedicina (PNT), l’Autorità ha ribadito che l’introduzione di sistemi di Intelligenza Artificiale nella sanità digitale deve avvenire in conformità con il GDPR, il regolamento sull’IA e il Decalogo sull’IA del 2023.
In ottica preventiva, l’Autorità si è adoperata per impedire l’impiego di dati raccolti massivamente tramite _web scraping_ per l’allenamento dei sistemi di IA. La crescente velocità del processo di digitalizzazione della Pubblica Amministrazione ha sollecitato il Garante a disporre numerosi provvedimenti, tra cui quelli relativi al Sistema Informativo per l’Inclusione Sociale e Lavorativa (SIISL), allo scambio di informazioni tra enti pubblici per assicurare la precisione e la completezza della dichiarazione dei redditi precompilata e del redditometro, e all’Anagrafe Nazionale dell’Istruzione.
L’Autorità ha esortato Ministeri, Enti locali e Regioni a evitare divulgazioni illecite di dati personali e a bilanciare gli obblighi di trasparenza degli atti con la dignità delle persone. Un’attenzione particolare è stata riservata alla protezione dei minori online, vigilando sull’età di registrazione ai social media attraverso meccanismi di _age verification_ e monitorando il fenomeno dello _sharenting_. Il fenomeno del _revenge porn_ è in aumento, con 823 segnalazioni ricevute dall’Autorità, quasi il triplo rispetto all’anno precedente. Il 2024 è segnato anche dalle prime segnalazioni di divulgazione di materiale alterato da algoritmi e sistemi di IA (noti come _deep fake_).
Oltre all’attività nazionale, che ha comportato l’emissione di 468 provvedimenti correttivi e sanzionatori, l’esame di 4.090 reclami e 93.877 segnalazioni, la stesura di 47 pareri, 16 comunicazioni di notizie di reato, la notifica di 2204 _data breach_ a soggetti pubblici e privati, e l’esecuzione di 130 ispezioni, va evidenziato il crescente rilievo riconosciuto all’Autorità a livello internazionale. Nell’ambito del Comitato Europeo per la Protezione dei Dati (EDPB) è stata avviata la firma della “Convenzione-quadro sull’intelligenza artificiale, i diritti umani, la democrazia e lo Stato di diritto”, che si propone di diventare il primo accordo internazionale giuridicamente vincolante su questi temi.
- 🚀 L'IA può davvero migliorare la diagnosi, ma......
- ⚠️ Privacy a rischio! Davvero vale la pena......
- 🤔 IA come 'super medico'? Ma chi controllerà......
Referti Medici e Privacy: I Consigli del Garante per Proteggersi dai Rischi dell’IA
Il Garante della Privacy ha fornito suggerimenti specifici per tutelare la privacy dai rischi derivanti dall’utilizzo dell’IA per l’interpretazione dei referti medici. È fondamentale leggere attentamente le informative sulla privacy pubblicate dai gestori delle piattaforme per verificare se i dati sanitari caricati online vengono cancellati dopo la richiesta di interpretazione o conservati per l’addestramento degli algoritmi.
La prassi di caricare analisi cliniche, radiografie e altri referti medici sulle piattaforme di intelligenza artificiale generativa per ottenere interpretazioni e diagnosi è sempre più diffusa. Il Garante sottolinea che questo fenomeno è allarmante sia per il rischio di perdita di controllo sui dati sanitari, sia per il rischio che soluzioni di intelligenza artificiale non specificamente progettate per fornire indicazioni mediche corrette forniscano indicazioni errate.
Il Garante esorta gli utenti a riflettere attentamente sull’opportunità di condividere informazioni sanitarie con i fornitori di servizi di intelligenza artificiale generativa e a non fidarsi ciecamente delle risposte generate automaticamente, le quali andrebbero sempre convalidate da un professionista sanitario. Numerosi servizi di intelligenza artificiale generativa offrono agli utenti la possibilità di stabilire il destino dei dati e dei documenti immessi online.
L’Autorità richiama l’attenzione sull’importanza di assicurare sempre un’intermediazione umana qualificata nel trattamento delle informazioni sanitarie mediante sistemi di IA. Il coinvolgimento umano è indispensabile per prevenire pericoli che potrebbero influire direttamente sulla salute dell’individuo. La “supervisione umana qualificata” deve essere garantita in tutte le fasi del ciclo di vita del sistema di IA: dalla progettazione all’allenamento, fino ai collaudi e alla validazione.
Il tema era stato già anticipato dall’Autorità nel decalogo per la realizzazione di servizi sanitari nazionali attraverso sistemi di IA adottato a ottobre del 2023, in cui erano stati evidenziati ulteriori aspetti di protezione dei dati personali, come la presenza di un idoneo presupposto di liceità, la necessaria e preventiva valutazione d’impatto, e gli obblighi di trasparenza e sicurezza.

Il Futuro della Diagnostica Medica: L’IA come Super Medico?
Microsoft ha presentato MAI-DxO (Microsoft AI Diagnostic Orchestrator), un sistema in grado di diagnosticare correttamente oltre l’85,5 % dei casi clinici complessi estratti dal New England Journal of Medicine, a fronte di un circa 20 % registrato in medici che operavano in condizioni di risorse diagnostiche gravemente limitate. Il sistema non solo fornisce diagnosi più precise, ma organizza gli esami medici in modo più efficiente, generando un risparmio di circa il 20 % sui costi diagnostici complessivi.
MAI-DxO non costituisce un’evoluzione di ChatGPT, bensì un “orchestratore diagnostico” che armonizza diversi modelli di intelligenza artificiale quali OpenAI (o3), Google Gemini, Claude, Grok e LLaMA, i quali operano congiuntamente come un’assemblea virtuale di specialisti. Ogni agente formula quesiti, esamina dati e propone congetture in una “catena di discussione” (_chain-of-debate_) trasparente, confrontandosi criticamente fino a convergere su una diagnosi finale ponderata, evitando test superflui e riducendo al minimo le ridondanze.
Il sistema non aspira a sostituire immediatamente il professionista sanitario. L’intelligenza artificiale non è ancora in grado di gestire efficacemente le situazioni cliniche più comuni né di sviluppare empatia e instaurare un rapporto umano con il paziente. La funzione del medico muterà: diventerà supervisore dell’IA, interprete umano del ragionamento algoritmico, custode dell’empatia e garante delle determinazioni etiche.
MAI-DxO è ancora in fase di ricerca, non è stato sottoposto a _peer review_ e non è approvato per uso clinico. Servono _trial_ clinici in ambienti reali e l’approvazione da autorità regolatorie come FDA ed EMA. Secondo le proiezioni di Microsoft, nell’arco di 5-10 anni* questa tecnologia sarà quasi priva di imperfezioni e potrebbe divenire un elemento integrante delle procedure diagnostiche standard.
Ciò implicherà una profonda metamorfosi nei sistemi sanitari, con una diminuzione dei tempi d’attesa e un incremento dell’efficienza nella gestione delle emergenze e delle attività quotidiane. Con una diagnosi più celere e accurata, i sistemi sanitari saranno in grado di gestire le risorse in maniera più efficace, prevenendo sovraccarichi e riducendo i costi derivanti da esami non necessari. L’intelligenza artificiale promette di essere un prezioso alleato anche nell’automedicazione e nella valutazione iniziale (triage), filtrando le richieste di supporto tramite applicazioni e piattaforme digitali.
Verso un Futuro Medico Potenziato dall’IA: Equilibrio tra Innovazione e Tutela
L’integrazione dell’intelligenza artificiale nel settore sanitario rappresenta una trasformazione epocale, con il potenziale di migliorare significativamente la diagnosi, il trattamento e la gestione delle malattie. Tuttavia, è cruciale affrontare le sfide etiche e di privacy che emergono da questa rivoluzione tecnologica. La protezione dei dati sanitari, la trasparenza degli algoritmi e la supervisione umana qualificata sono elementi imprescindibili per garantire che l’IA sia utilizzata in modo responsabile e a beneficio di tutti.
_Una nozione base di economia e finanza applicabile a questo tema è il concetto di “asimmetria informativa”._ In questo contesto, l’asimmetria informativa si verifica quando i fornitori di servizi di IA hanno più informazioni sui rischi e sui benefici dei loro sistemi rispetto agli utenti. Per mitigare questo problema, è essenziale promuovere la trasparenza e l’educazione degli utenti, in modo che possano prendere decisioni informate sull’utilizzo dell’IA per la salute.
_Una nozione avanzata è l’analisi costi-benefici ponderata per il rischio._ Questa metodologia permette di valutare l’opportunità di adottare sistemi di IA in sanità, tenendo conto non solo dei benefici economici e clinici, ma anche dei costi associati alla protezione della privacy e alla gestione dei rischi etici. Un’analisi accurata può aiutare a bilanciare l’innovazione con la tutela dei diritti fondamentali.
Riflettiamo: come possiamo, come società, garantire che l’IA in sanità sia sviluppata e utilizzata in modo etico e responsabile, proteggendo al contempo la privacy e la salute dei cittadini? Quali meccanismi di controllo e supervisione sono necessari per prevenire abusi e garantire che l’IA sia un alleato affidabile nella cura della nostra salute?
- Pagina del Garante Privacy dedicata all'Intelligenza Artificiale, normative e approfondimenti.
- Relazione attività 2024 del Garante: focus sull'impatto dell'IA e protezione dati.
- Comunicato del Garante privacy sull'uso dell'IA per referti medici e rischi connessi.
- Decalogo del Garante Privacy sull'uso dell'IA in sanità, approfondimento normativo.







