Il professor Stefano Crisci (Sapienza): «L’intelligenza artificiale deve essere al servizio del medico. Scongiurare il rischio di dequalificazione del professionista»
L’errore in medicina è sempre possibile. Se un medico sbaglia, è tutelato dall’assicurazione. Ma se a sbagliare è un robot? La presenza sempre più invasiva dell’intelligenza artificiale nella società in cui viviamo e nei reparti degli ospedali ci spinge a porre questioni che fino a poco tempo erano relegate esclusivamente al mondo della fantascienza. Ma una volta che quel mondo è diventato realtà, sono gli esperti del settore a dover rispondere a domande di questo genere. Esperti come il professor Stefano Crisci, avvocato amministrativista e docente di Market regulation presso l’università Sapienza di Roma: «È l’algoritmo a comandare la macchina e quindi è su questo che va concentrata la nostra attenzione. Le linee guida adottate pochi mesi fa dall’Unione Europea, così come una recente sentenza del Consiglio di Stato, parlano infatti di un algoritmo etico: deve cioè essere trasparente, accessibile e giustiziabile, ovvero sottoponibile al giudizio di un giudice».
LEGGI ANCHE: CONTENZIOSI, L’UROLOGO GALLUCCI: «USO DEL ROBOT NON ESCLUDE COMPLICANZE, AL PAZIENTE VA SPIEGATO BENE»
E in caso di giudizio, di chi è la responsabilità?
«Una direttiva europea del 2017 prevede la responsabilità oggettiva del produttore di tutti i sistemi robotici o che utilizzano intelligenza artificiale. Siano essi veri e propri robot o Internet of medical devices, per esempio. Poi la responsabilità oggettiva potrà essere gradata a seconda della vicinanza al problema in un regime di causa-effetto. Si dovrà quindi stabilire di volta in volta se il device o il robot sono stati utilizzati male o sono stati poco educati alla situazione che gli è stato chiesto di gestire. Sarà quindi il giurista a stabilire a chi far risalire la responsabilità».
Sarà quindi necessario stipulare un’assicurazione anche per questi strumenti?
«L’Unione Europea imporrà un’assicurazione obbligatoria a tutti i produttori di devices dotati di intelligenza artificiale che, forse, toccherà a cascata anche tutti gli utilizzatori degli strumenti. Ci sarà inoltre un fondo assicurativo per tutelare chi avrà subito un danno da un prodotto robotico o dotato di intelligenza artificiale, simile al fondo perle vittime della strada. Sono elementi che fanno ben sperare quanto alla salvaguardia di quella piccola percentuale di incidenti che possono accadere, e che speriamo si assottigli sempre più».
Che tempi prevede per l’instaurazione di questo regime di assicurazione obbligatoria?
«La Commissione Europea ne ha già parlato, quindi si farà in poco tempo. Da aprile ad oggi si è fatto moltissimo in questo campo, cosa che non credevo possibile. Poi tutto si evolve, quindi dovremo lavorare giorno per giorno per adattare la normativa ai cambiamenti a cui assistiamo. Già il regolamento sulla privacy GDPR, ad esempio, contiene degli articoli che possono essere applicati in modo molto estensivo e adattati in base alle varie necessità».
Secondo lei in che modo si potranno coniugare le professionalità dei medici e dei professionisti sanitari con l’automazione di questi prodotti?
«Stephen Hawking diceva che l’intelligenza artificiale deve essere al servizio dell’uomo. E credo che questo valga ancora di più in campo medico. Il medico non potrà mai abbandonare la sua funzione di assistenza al paziente. L’intelligenza artificiale avrà raggiunto il suo obiettivo se consentirà al medico di trascorrere più tempo con il paziente e di non occuparsi più di quelle mansioni spicciole che gli tolgono tempo. Poi è chiaro che sarà il medico a non doversi abbandonare all’intelligenza artificiale: non dovrà fidarsi esclusivamente della diagnosi, ad esempio, propostagli senza verificarla tramite la sua esperienza e le sue conoscenze. Quello della dequalificazione del medico è un pericolo che deve essere assolutamente scongiurato. E se necessario, ospedali e strutture sanitarie dovranno insistere in modo particolare su questo e fissare regole che obblighino il medico a non adagiarsi».