Cure e intelligenza artificiale: la privacy e il rischio dell’algoritmo che discrimina

L’intelligenza artificiale è uno strumento sempre più impiegato nelle cure: dalle tecnologie sanitarie (si pensi a tac e risonanze) fino alla medicina predittiva o alle scelte di politica sanitaria di ospedali e governi basate su dati e algoritmi. Una strada, questa, dalla quale non si torna più indietro ecco perché il Garante della privacy ha appena varato un decalogo per la realizzazione di servizi sanitari a livello nazionale attraverso sistemi di intelligenza artificiale. Tra le richieste del garante c’è la trasparenza, la supervisione dell’uomo sulle decisioni e la necessità di evitare discriminazioni sulle cure a causa degli algoritmi.

Massima trasparenza: il cittadino ha diritto di conoscere

Come detto il Garante della privacy ha redatto un decalogo che va dalle basi giuridiche del trattamento ai ruoli, dalla valutazione d’impatto sulla protezione dei dati alla correttezza integrità e riservatezza dei dati stessi. Ma sono fondamentalmente tre i principi cardine enucleati dall’Autorità sulla base del regolamento della privacy e alla luce della giurisprudenza del Consiglio di Stato: trasparenza dei processi decisionali, decisioni automatizzate supervisionate dall’uomo e non discriminazione algoritmica. In base alle indicazioni del Garante il paziente deve avere il diritto di conoscere, anche attraverso campagne di comunicazione, se esistono e quali sono i processi decisionali (ad esempio, in ambito clinico o di politica sanitaria) basati su trattamenti automatizzati effettuati attraverso strumenti di IA e di ricevere informazioni chiare sulla logica utilizzata per arrivare a quelle decisioni. Il processo decisionale dovrà prevedere una supervisione umana che consenta al personale sanitario di controllare, validare o smentire l’elaborazione effettuata dagli strumenti di Intelligenza artificiale.

Il rischio dei potenziali effetti discriminatori degli algoritmi

È opportuno, avverte il Garante, che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano gli errori dovuti a cause tecnologiche o umane e ne verifichi periodicamente l’efficacia, mettendo in atto misure tecniche e organizzative adeguate. Le cautele sono necessarie anche allo scopo di mitigare potenziali effetti discriminatori che un trattamento di dati inesatti o incompleti potrebbe comportare sulla salute della persona. Un esempio è il caso americano, richiamato dal Garante nel decalogo, riguardante un sistema di Intelligenza artificiale utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani. Gli algoritmi tendevano ad assegnare un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute, a causa della metrica utilizzata, basata sulla spesa sanitaria media individuale che risultava meno elevata per la popolazione afroamericana, con la conseguenza di negare a quest’ultima l’accesso a cure adeguate. Non solo: il dato non aggiornato o inesatto, sottolinea l’Autorità, potrebbe influenzare anche l’efficacia e la correttezza dei servizi che i sistemi di IA intendono realizzare.

Le basi giuridiche per impiegare l’Ai

Particolare attenzione è stata posta dal Garante all’idoneità della base giuridica per l’uso dell’intelligenza artificiale. Il trattamento di dati sulla salute attraverso tecniche di IA, effettuato per motivi di interesse pubblico in ambito sanitario, dovrà essere previsto da uno specifico quadro normativo, che individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati. Nel rispetto del quadro normativo di settore, il Garante ha inoltre sottolineato la necessità che, prima di effettuare trattamenti di dati sulla salute mediante sistemi nazionali di IA, sia svolta una valutazione d’impatto allo scopo di individuare le misure idonee a tutelare i diritti e le libertà dei pazienti e garantire il rispetto dei principi del Regolamento Ue sulla privacy. Un sistema centralizzato nazionale che utilizzi l’IA determina infatti un trattamento sistematico su larga scala di dati sanitari che rientra tra quelli ad “alto rischio”, per i quali la valutazione d’impatto è obbligatoria e deve essere svolta a livello centrale per consentire un esame complessivo sull’adeguatezza e omogeneità degli accorgimenti adottati.

Fonte: Il Sole 24 Ore