L’Organizzazione Mondiale per la Sanità ha pubblicato un documento che mira a delineare i principi chiave che i governi e le autorità di regolamentazione possono seguire per sviluppare nuove linee guida o adattare le linee guida esistenti sull’AI a livello nazionale o regionale.
L’Organizzazione Mondiale della Sanità (OMS) ha pubblicato un nuovo testo che elenca le principali considerazioni normative sull’intelligenza artificiale (AI) applicata alla salute. La pubblicazione sottolinea l’importanza di stabilire sicurezza ed efficacia dei sistemi di intelligenza artificiale, rendendo rapidamente disponibili sistemi adeguati a coloro che ne hanno bisogno e promuovendo il dialogo tra le parti interessate, inclusi sviluppatori, regolatori, produttori, operatori sanitari e pazienti.
Con la crescente disponibilità di dati sanitari e il rapido progresso delle tecniche analitiche – siano esse di apprendimento automatico, basate sulla logica o statistiche – gli strumenti di intelligenza artificiale potrebbero trasformare il settore sanitario, rileva l’autorità sanitaria internazionale. L’Oms riconosce il potenziale dell’AI nel migliorare i risultati sanitari rafforzando gli studi clinici; migliorando la diagnosi medica, il trattamento, la cura di sé e l’assistenza centrata sulla persona; e integrando le conoscenze, le abilità e le competenze degli operatori sanitari. L’intelligenza artificiale potrebbe essere utile in contesti in cui mancano specialisti medici, ad esempio nell’interpretazione delle scansioni retiniche e delle immagini radiologiche, tra le altre opzioni. Tuttavia, le tecnologie di intelligenza artificiale vengono implementate rapidamente, a volte senza una piena comprensione del loro funzionamento, il che potrebbe avvantaggiare o danneggiare gli utenti finali, compresi gli operatori sanitari e i pazienti, avverte l’Oms.
In risposta alla crescente esigenza dei Paesi di gestire in modo responsabile la rapida ascesa delle tecnologie sanitarie basate sull’intelligenza artificiale, la pubblicazione delinea 6 aree per la regolamentazione dell’AI per la salute. Per promuovere la fiducia, si sottolinea l’importanza della trasparenza, ad esempio documentando l’intero ciclo di vita del prodotto e monitorando i processi di sviluppo. Per la gestione del rischio, questioni come uso previsto, apprendimento continuo, interventi umani, modelli di formazione e minacce alla sicurezza informatica devono essere tutte affrontate in modo completo, con modelli resi il più semplici possibile.
La convalida esterna dei dati e la chiarezza sull’uso previsto dell’AI aiutano a garantire la sicurezza e a facilitare la regolamentazione: secondo l’Oms, un impegno per la qualità dei dati, ad esempio attraverso una valutazione rigorosa dei sistemi prima del rilascio, è vitale per garantire che i sistemi non amplifichino pregiudizi ed errori. Le sfide poste da normative importanti e complesse – come il Regolamento generale sulla protezione dei dati (GDPR) in Europa e l’Health Insurance Portability and Accountability Act (HIPAA) negli Stati Uniti d’America – vengono affrontate ponendo l’accento sulla comprensione dell’ambito della giurisdizione e requisiti di consenso, al servizio della privacy e della protezione dei dati. In sintesi, la nuova pubblicazione dell’Oms mira a delineare i principi chiave che i governi e le autorità di regolamentazione possono seguire per sviluppare nuove linee guida o adattare le linee guida esistenti sull’AI a livello nazionale o regionale.