Gli articoli della Dire non sono interrotti dalla pubblicità. Buona lettura!

Se Google sa più del medico: pro e contro dell’Intelligenza artificiale

artificial-intelligence-4694502_1920-1
Di questo si è parlato durante il webinar 'L'Intelligenza Artificiale a servizio della Sanità' andato in streaming lo scorso 20 novembre sul canale YouTube di Anorc
Condividi su facebook
Condividi su twitter
Condividi su whatsapp
Condividi su email
Condividi su print

https://youtu.be/NMez2AlFkuw

ROMA – Una giornata di approfondimento sui temi legati all’applicazione dell’Intelligenza Artificiale in ambito sanitario con una serie di interventi di esperti moderati dalla vice presidente di Anorc Professioni, Sarah Ungaro, per offrire un quadro completo del fenomeno, dalle iniziative in essere per lo sviluppo della IA in Italia alle linee guida etiche indicate dall’Ue, dai principi di machine learning alle questioni legate alla protezione dei dati personali, alla sicurezza dei dispositivi (come i robot per la chirurgia o i wearable) e il flusso di dati che essi generano. Infine, gli aspetti giuridici legati alla funzione di controllo dei sistemi e i possibili scenari in caso di errore. Questo è stato il webinar ‘L’Intelligenza Artificiale a servizio della Sanità’ andato in streaming lo scorso 20 novembre sul canale YouTube di Anorc

La prima ad intervenire è stata Enrica Massella Ducci Teri, responsabile Servizio Gestione Ecosistemi Area Trasformazione Digitale presso AgID, sul tema del fascicolo elettronico sanitario e delle regole di interoperabilità. “Il lavoro che è stato fatto finora- ha detto la dottoressa Massella- ha portato a realizzare l’infrastruttura nazionale e a far sì che tutte le regioni si siano dotate del fascicolo sanitario elettronico che è stato sviluppato coerentemente secondo regole di interoperabilità comuni. Attualmente, anche grazie al decreto rilancio che ha previsto proprio una serie di misure per agevolare l’attivazione e la diffusione del fascicolo elettronico sanitario. Il fascicolo- ha aggiunto- sta rappresentando il punto di convergenza di una grande ricchezza di informazioni. Ma occorre passare dalla logica del documento alla logica del dato. Da sempre si è lavorato affinché questa enorme mole di dati che via via sta crescendo possa poi essere messa a disposizione dello stesso sistema sanitario nazionale, ma soprattutto del mondo della ricerca. Riguardo alla sicurezza dei dati- ha continuato Massella- in tutte le iniziative che vengono portate avanti c’è il costante raccordo con il Garante della Privacy perché la sicurezza informatica è da sempre il punto di attenzione massimo. Ora- ha proseguito- è necessaria la standardizzazione dei documenti secondo il formato che è stato stabilito a livello europeo. È importante che il fascicolo rivesta un ruolo centrale in quanto è il punto unico di accesso delle informazioni critiche dell’assistito e può servire ad arrivare a cure sempre più personalizzate soprattutto per i pazienti cronici. Quindi non deve essere un mero contenitore di dati ma una infrastruttura di servizio”. 

Il medico e ricercatore, esperto indipendente dell’osservatorio Software As Medical Device realizzato da ministero della Salute e Iss, Sergio Pillon, nell’intervento successivo ha testimoniato proprio l’efficacia della condivisione dei dati, raccontando che “con il Cnr abbiamo provato a processare con IA le Tac e le risonanze fatte in Pronto Soccorso per altri motivi provando ad estrarre informazioni relative alla diagnostica precoce di un carcinoma del polmone, lesione per cui ancora oggi la cura è proprio la diagnosi precoce”. La ricerca ha portato a concludere che “un servizio di rete messo a disposizione delle aziende ospedaliere consente fattivamente la possibilità di una diagnosi precoce”. Ma il problema numero uno sul fascicolo elettronico sanitario, secondo Pillon, è la “computabilità dei dati che si raccolgono che devono essere analizzabili attraverso meccanismi di machine learning. Un’altra fonte importantissima di dati- ha aggiunto- non è contenuta nell’alveo prettamente sanitario. I dati sanitari sono la punta dell’iceberg, a noi medici interessa quello che c’è sotto e Google e Apple lo sanno molto meglio di noi. Si tratta di quei dati provenienti dai dispositivi che indossiamo i cosiddetti “wearable”, ai quali secondo Pillon sarebbe utile avere accesso per scopi sanitari. 

Stefano Quintarelli, del Comitato scientifico copernicani e Member of the AI High Level Expert Group at European Commission, ha posto l’attenzione sulla funzione predittiva dell’IA. ‘L’intelligenza artificiale è un modo diverso di fare software reso attuale dalla potenza di calcolo– ha precisato Quintarelli- che consente di affrontare problemi nuovi di percezione e classificazione basandosi sull’estrazione di correlazioni tra i dati osservati nella realtà per fare delle previsioni’. Trattandosi di un sistema statistico, tuttavia, è per definizione soggetto all’errore, che è fisiologico, e pertanto non deve scoraggiare dall’utilizzare le tecnologie. ‘Chi utilizza questi strumenti- ha detto- deve essere consapevole che questi meccanismi sbagliano, anche se poco’. Ci deve essere sempre un medico, dunque, a confermare la validità dei dati.

Tema centrale assieme a quello delle applicazioni è la sicurezza. Ne ha parlato Andrea Rigoni, esperto in Cybersecurity, componente dell’osservatorio Mise sull’Intelligenza Artificiale. ‘L’intelligenza artificiale- ha spiegato- è come un bambino che si nutre di dati, è in grado di produrre delle analisi basate su di essi, ma è anche in grado di apprendere e quindi di crescere proprio come avviene in età scolare. Questo è un cambio di paradigma anche da un punto di vista di sicurezza informatica: cambia quello che cerchiamo di proteggere, che non è più solo l’algoritmo, ma sono anche i suoi effetti. Perché nell’intelligenza artificiale con un determinato input avrò degli output che continueranno a cambiare. Oggi- ha considerato Rigoni- dobbiamo porci due problemi sulla cyber sicurezza: il primo sulla protezione dei dati a breve termine. Il secondo, a medio e lungo termine, che guarda la pedagogia degli algoritmi’. Secondo l’esperto bisogna preoccuparsi della qualità delle informazioni con cui nutriamo intelligenza artificiale perché da questa dipende il comportamento dell’algoritmo. ‘La mia preoccupazione- ha detto- è che ad una forte attenzione allo sviluppo della intelligenza artificiale, non corrisponde altrettanta attenzione agli aspetti di security e safety. Dobbiamo preoccuparci di sviluppare modelli di safety e security che non scimmiottano quelli tradizionali. Dobbiamo alzare l’attenzione sul tema, per esempio inserendo non solo dei requisiti, ma degli incentivi a fare ricerca in questo ambito. Abbiamo bisogno oggi di strumenti e di cominciare a stabilire dei principi di security che possono considerare scenari che oggi possono sembrare di fantascienza’. 

Sul tema della progettazione e delle applicazioni dell’Intelligenza Artificiale è intervenuto Antonio Bartolozzi, contract professor dell’Università di Trieste, Medical Device Software Design-Software Consulting Services. ‘L’Intelligenza artificiale– ha dichiarato- non solo aiuta la gestione dei dati ma si può sostituire al medico nel caso in cui si accorge di un errore. L’esempio potrebbe essere la prescrizione di un farmaco da parte di un medico: il sistema vede che la dose prescritta non è compatibile con i parametri vitali del paziente (esempio: farmaco che abbassa la pressione per un paziente con la pressione troppo bassa) e potrebbe quindi sostituire il medico, prendere l’iniziativa e correggere la quantità’. Ma perché sistemi di questo tipo siano veramente efficienti ci vuole, secondo Bartolozzi, progettazione, zelo nell’adozione degli standard e continue analisi dei rischi. Come avviene per l’elaborazione dei sistemi di pilotaggio automatico degli aerei. L’intervento si è concluso con una riflessione sul potenziale del computer, che Turing creò per primo per crackare il sistema Enigma. Ma l’eredità che ci ha lasciato Turing è la consapevolezza, secondo Bartolozzi, ‘che non esiste un algoritmo in grado di decidere su proprio funzionamento, il computer non può capire sé stesso e non può evitare gli errori’. 

Lorenzo Paganelli, esperto di I.A. della società Gmed Srl, ha portato la sua attuale esperienza di collaborazione con i Ssn regionali, in particolare per il sostegno all’attività di contact tracing per i casi di Covid-19. Un’altra funzione dell’IA rispetto a quella predittiva, resa possibile dalla creazione di un ‘assistente virtuale’ capace di contattare per via telefonica il cittadino risultato positivo al virus, informarlo della normativa vigente in materia, acquisire la lista di contatti avuti nelle ultime 48 ore, contattare quelli stretti, ottenuti nel secondo passaggio, inserire i dati nel software gestionale dell’azienda sanitaria di riferimento. Funziona per le chiamate in entrata e in uscita, perciò ‘si possono- ha spiegato Paganelli- gestire i casi di giorno e di notte. Pensiamo agli operatori che in questo momento sono assaliti da telefonate’. 

L’altra faccia della medaglia sul tema della sicurezza, oltre il punto di vista tecnologico e informatico, è quello dei rischi per i diritti e la libertà delle persone. Di questo ha parlato il dottor Franco Cardin, coordinatore del Consiglio Direttivo Anorc. ‘Il rispetto del Gdpr non impedisce l’utilizzo di tecnologie di IA in sanità per finalità di miglioramento dei processi di cura’ ha dichiarato l’esperto privacy in ambito sanitario. Secondo Cardin, ‘Gdpr e IA sono compatibili a condizione che si applichi davvero il Gdpr, in modo sostanziale. In altre parole, a patto che si rispetti, oltre che tutti i principi di carattere generale, soprattutto il principio di responsabilizzazione, cioè l’accountability’. Queste tecnologie insomma devono essere utilizzate nel rispetto dei diritti fondamentali delle persone, in particolar modo nell’ambito sanitario. ‘Nel Gdpr- ha detto Cardin- troviamo una serie di strumenti che se utilizzati in modo sostanziale consentono di garantire che i diritti e le libertà delle persone fisiche, tra cui quello alla protezione dei dati personali, vengano rispettati’. L’esempio portato dall’esperto è quello relativo al parere del Garante rispetto alla decisione della provincia di Trento di una soluzione che prevede l’utilizzo di dati personali con strumenti di IA. In quel caso, ‘il Garante ha evidenziato una novità introdotta dal Gdpr, cioè ogni qualvolta si intenda utilizzare i dati personali con determinate tecnologie va fatta una valutazione di impatto sulla protezione di quei dati’. 

Gli interventi del webinar si sono conclusi con le riflessioni di Marco Scialdone, avvocato e PhD, docente dell’Università europea di Roma e componente dell’osservatorio Mise sull’IA. ‘Ciò che determina la nuova primavera dell’Intelligenza Artificiale- ha premesso- è da un lato la potenza di calcolo e dall’altro la grandissima quantità di dati di cui si dispone e le tecniche per gestirli’. La questione, secondo Scialdone, è che il confine tra dati sensibili, appartenenti a categorie particolari, e dati ordinari diventa molto più sottile laddove l’analisi sia massiva e venga effettuata con IA perché in realtà è possibile non solo che il dato normale generi indirettamente un dato sanitario, ma che attraverso questo si possa arrivare ad analisi predittive sui comportamenti del soggetto, anche di natura non strettamente sanitaria, legati alla sfera del consumo. In questo mondo la distinzione tra dato sanitario e non sanitario comincia a sfuggire. Scialdone ha dunque concluso ricordando che nella strategia Ue lanciata lo scorso febbraio dalla Commissione c’è l’intenzione di costruire “spazi europei dei dati” nei settori di rilevanza strategica e uno di questi è quello sanitario. ‘Su questo si è espresso il Garante europeo, cioè sulle modalità secondo cui questo spazio dovrà realizzarsi. E l’aspetto interessante è che il Garante dice espressamente che la base giuridica del trattamento dei dati non deve essere il consenso. Una presa di coscienza del fatto che in alcuni ambiti il consenso deve lasciare il passo ad altre basi giuridiche che attengono a garanzie rimesse non solo al singolo, ma anche a quelle esterne che lo Stato deve offrire a tutela della dignità del cittadino a prescindere dalla volizione. Cioè in alcuni ambiti lo Stato deve farsi carico di stabilire le garanzie per raggiungere il bilanciamento tra Gdpr e intelligenza artificiale’. 

Secondo Sarah Ungaro, moderatrice dell’evento, ‘i preziosi e interessantissimi spunti offerti dai relatori durante il webinar dimostrano quanto sia indispensabile trattare i temi dell’Intelligenza artificiale in ambito sanitario nella loro affascinante complessità, con esperti e professionisti che possano contribuire ad interpretare tali questioni con approcci diversi e trasversali. Per questo e per altri approfondimenti diamo appuntamento a tutti al prossimo Dig.eat, che quest’anno si terrà dal 18 gennaio al 12 febbraio 2021, e sarà il primo evento digitale diffuso, con un calendario ricchissimo di appuntamenti e approfondimenti sulla nostra realtà digitale’.

Le notizie del sito Dire sono utilizzabili e riproducibili, a condizione di citare espressamente la fonte «Agenzia DiRE» e l’indirizzo «www.dire.it»

Condividi su facebook
Condividi su twitter
Condividi su whatsapp
Condividi su email
Condividi su print

Agenzia DIRE - Iscritta al Tribunale di Roma – sezione stampa – al n.341/88 del 08/06/1988 Editore: Com.e – Comunicazione&Editoria srl Corso d’Italia, 38a 00198 Roma – C.F. 08252061000 Le notizie del sito Dire sono utilizzabili e riproducibili, a condizione di citare espressamente la fonte «Agenzia DIRE» e l'indirizzo «www.dire.it»