L’Organizzazione Mondiale della Sanità (OMS) ha pubblicato una nuova pubblicazione che elenca le principali considerazioni normative sull’intelligenza artificiale (AI) per la salute. La pubblicazione sottolinea l’importanza di stabilire la sicurezza e l’efficacia dei sistemi di intelligenza artificiale, rendendo rapidamente disponibili sistemi adeguati a coloro che ne hanno bisogno e promuovendo il dialogo tra le parti interessate, inclusi sviluppatori, regolatori, produttori, operatori sanitari e pazienti.
Con la crescente disponibilità di dati sanitari e il rapido progresso delle tecniche analitiche – siano esse di apprendimento automatico, basate sulla logica o statistiche – gli strumenti di intelligenza artificiale potrebbero trasformare il settore sanitario. L’OMS riconosce il potenziale dell’IA nel migliorare i risultati sanitari rafforzando gli studi clinici; migliorare la diagnosi medica, il trattamento, la cura di sé e l’assistenza centrata sulla persona; e integrare le conoscenze, le abilità e le competenze degli operatori sanitari. Ad esempio, l’intelligenza artificiale potrebbe essere utile in contesti in cui mancano medici specialisti, ad esempio nell’interpretazione di scansioni retiniche e immagini radiologiche, tra molte altre.
Tuttavia, le tecnologie di intelligenza artificiale – compresi i modelli linguistici di grandi dimensioni – vengono rapidamente implementate, a volte senza una piena comprensione del loro funzionamento, il che potrebbe avvantaggiare o danneggiare gli utenti finali, compresi gli operatori sanitari e i pazienti. Quando si utilizzano dati sanitari, i sistemi di intelligenza artificiale potrebbero avere accesso a informazioni personali sensibili, necessitando di solidi quadri giuridici e normativi per salvaguardare la privacy, la sicurezza e l’integrità, che questa pubblicazione mira a contribuire a creare e mantenere.
“L’intelligenza artificiale rappresenta una grande promessa per la salute, ma comporta anche gravi sfide, tra cui la raccolta di dati non etici, minacce alla sicurezza informatica e l’amplificazione di pregiudizi o disinformazione”, ha affermato il dottor Tedros Adhanom Ghebreyesus, direttore generale dell’OMS. “Questa nuova guida aiuterà i paesi a regolamentare l’IA in modo efficace, per sfruttarne il potenziale, sia nel trattamento del cancro che nel rilevamento della tubercolosi, riducendo al minimo i rischi”.
In risposta alla crescente esigenza dei Paesi di gestire in modo responsabile la rapida ascesa delle tecnologie sanitarie basate sull’intelligenza artificiale, la pubblicazione delinea sei aree per la regolamentazione dell’IA per la salute.
- Per promuovere la fiducia, la pubblicazione sottolinea l’importanza della trasparenza e della documentazione , ad esempio documentando l’intero ciclo di vita del prodotto e monitorando i processi di sviluppo.
- Per la gestione del rischio , questioni come l'”uso previsto”, l'”apprendimento continuo”, gli interventi umani, i modelli di formazione e le minacce alla sicurezza informatica devono essere tutte affrontate in modo esaustivo, con modelli resi il più semplici possibile.
- La convalida esterna dei dati e la chiarezza sull’uso previsto dell’IA aiutano a garantire la sicurezza e a facilitare la regolamentazione.
- Un impegno per la qualità dei dati , ad esempio attraverso una valutazione rigorosa dei sistemi prima del rilascio, è vitale per garantire che i sistemi non amplifichino pregiudizi ed errori.
- Le sfide poste da normative importanti e complesse – come il Regolamento generale sulla protezione dei dati (GDPR) in Europa e l’Health Insurance Portability and Accountability Act (HIPAA) negli Stati Uniti d’America – vengono affrontate ponendo l’accento sulla comprensione dell’ambito della giurisdizione e requisiti di consenso, al servizio della privacy e della protezione dei dati.
- Promuovere la collaborazione tra organismi di regolamentazione, pazienti, operatori sanitari, rappresentanti del settore e partner governativi può aiutare a garantire che prodotti e servizi rimangano conformi alla normativa durante tutto il loro ciclo di vita.
I sistemi di intelligenza artificiale sono complessi e dipendono non solo dal codice con cui sono costruiti, ma anche dai dati su cui vengono addestrati, che provengono, ad esempio, da contesti clinici e interazioni con gli utenti. Una migliore regolamentazione può aiutare a gestire i rischi che l’intelligenza artificiale possa amplificare i pregiudizi nei dati di addestramento.
Ad esempio, può essere difficile per i modelli di intelligenza artificiale rappresentare accuratamente la diversità delle popolazioni, il che porta a pregiudizi, imprecisioni o addirittura fallimenti. Per contribuire a mitigare questi rischi, è possibile utilizzare le normative per garantire che gli attributi – come genere, razza ed etnia – delle persone presenti nei dati di formazione vengano riportati e che i set di dati siano intenzionalmente resi rappresentativi.
La nuova pubblicazione dell’OMS mira a delineare i principi chiave che i governi e le autorità di regolamentazione possono seguire per sviluppare nuove linee guida o adattare le linee guida esistenti sull’IA a livello nazionale o regionale.