(DIRE) Roma, 15 gen. - La Regione Lazio, attraverso l'ente Filas spa, con l'avviso pubblico per progetti di ricerca industriale e sviluppo sperimentale in ambito sanitario (Bioscienze 2009), ha cofinanziato il progetto 'Rilevazioni immagini in sala operatoria (Riso)'.
Promotori dell'iniziativa sono state due pmi, la 3STeam spa software e security solutions e la Lv Italia srl, coadiuvate da un organismo di ricerca pubblico-privato, il consorzio Roma Ricerche. L'obiettivo generale del progetto e' stato creare un'interfaccia front-end basata sui gesti, che permetta al personale medico dei reparti di neurochirurgia di navigare attraverso i sistemi di cartelle cliniche elettroniche senza alcun contatto con il computer o con altri strumenti informatici. Questo tipo di interfaccia ha il grande pregio di consentire la massima sterilita' in quei luoghi, come le sale operatorie, in cui e' fondamentale evitare ogni tipo di contaminazione.
Tramite i gesti manuali si potranno contrastare efficacemente alcuni problemi fondamentali del settore neurochirurgico e medico in generale: - Accesso alle informazioni elettroniche necessarie nel corso di un'operazione senza ricorrere a tastiere o mouse, mantenendo cosi' una totale sterilizzazione; - Controllo dei diversi strumenti e dispositivi di visualizzazione attraverso un gesto codificato del chirurgo - Esplorazione e manipolazione sterile di immagini di alta qualita' del cervello e della calotta cranica prodotte da tecniche di scannerizzazione 3d quali le risonanze magnetiche e le tac; - Reazione rapida garantita dall'utilizzo dei gesti, piu' veloci delle istruzioni verbali; - Ingombro ridotto, la soluzione non necessita di dispositivi sensoriali tattili montati sulla mano; - Grande navigabilita' poiche' il movimento della mano e' in grado di determinare anche l'intensita' del movimento e non solo la sua direzione e rotazione; - Ambienti rumorosi, che vincolano l'impiego dei comandi vocali ma che non hanno alcun influsso le istruzioni sono veicolate tramite gesti.
Attualmente non esistono programmi operativi negli ospedali circa l'utilizzo di sistemi di riconoscimento di comandi gestuali della mano come interfacce gestuali. Nella maggior parte degli ospedali e delle cliniche, l'accesso ai database medici informatici avviene tramite dispositivi convenzionali, quali la tastiera e il mouse. Di conseguenza, per prevenire contagi e infezioni tramite il contatto diretto della mano con le interfacce dei computer, nelle sale operatorie sono state adottate due pratiche principali: o il chirurgo si rivolge a un assistente per controllare l'interfaccia o controlla, quindi, lui stesso l'interfaccia informatica posizionando un foglio di plastica sulla tastiera e sul mouse e indossando un doppio paio di guanti (metodo tra l'altro non del tutto sicuro). Una volta consultato il data base, il medico rimuove il paio di guanti con cui ha maneggiato l'hardware, per tornare ad operare. Grazie a questo sistema e' quindi possibile risparmiare sui costi relativi all'assunzione dell'assistente e al pagamento del relativo stipendio e di risparmiare tempo, soprattutto in occasione degli interventi delicati, evitando di dover indossare e rimuovere i guanti, ogni qualvolta la situazione lo richieda.
Un'altra soluzione potrebbe esser rappresentata dal touch-screen, ma, in un luogo come la sala operatoria, i display touch devono essere sigillati per prevenire l'accumularsi di potenziali veicoli di infezione e devono avere superfici lisce, per rendere piu' facile la pulitura.
Alla luce di quanto detto finora, si evince che l'obiettivo specifico della presente ricerca e' stata la determinazione di un solido algoritmo per il riconoscimento in tempo reale del controllo gestuale della mano, per consentire di determinare quei gesti necessari all'utilizzo e alla consultazione di tutti quegli esami utili nell'ambito di un operazione neurologica. L'algoritmo, e il database che conterra' il vocabolario dei gesti, sono utilizzabili attraverso lo sviluppo di un'interfaccia gestuale sterile e priva di contatto, volta ad effettuare ricerche negli archivi del reparto.
La soluzione software si e' basata su un dispositivo assolutamente innovativo recentemente apparso sul mercato.
L'analisi delle alternative esistenti, suscettibili di essere applicate al progetto Riso, ha condotto all'individuazione del Leap Motion, un innovativo dispositivo usb dotato di 3 sensori ad infrarossi e due camere rgb. E' progettato per essere posizionato su una superficie piana sotto l'area in cui vengono effettuati i movimenti delle mani e puo' tracciare movimenti delle dita o di oggetti utilizzati come puntatori (es: penne, matite...) con una precisione di circa 1/100 di millimetro. Il range di rilevamento dei movimenti e' compreso tra circa 0.1 m e 1.0 m, a differenza degli altri dispositivi che non hanno la capacita' di acquisire dati ad una distanza inferiore agli 0.15 m.
Il Leap Motion risulta essere dotato di buone prestazioni, alta precisione, ingombro minimale ed e' disponibile a un costo molto inferiore rispetto agli altri dispositivi. Per questi motivi e' risultato il piu' idoneo per lo sviluppo del progetto. Il Leap Motion mette a disposizione un kit di sviluppo, che fornisce metodi di alto livello per l'identificazione della mano e delle dita (o oggetti usati come puntatori). Per la componente del riconoscimento dei gesti sono state utilizzate, personalizzandole, le librerie messe a disposizione da Leap Motion. Con esse e' possibile effettuare la segmentazione delle mani, l'estrazione di feature, come ad esempio dita, palmi o puntatori, e il loro tracciamento.
Per lo sviluppo della componente che gestisce i dati medici si e' scelto di utilizzare Mitk, un toolkit open source che permette la creazione di programmi interattivi per la visualizzazione e la manipolazione di immagini diagnostiche. Mitk e' una libreria che estende l'Insight Toolkit (Itk) e il Visualization Toolkit (Vtk) e offre caratteristiche utili per lo sviluppo di software interattivi per la manipolazione di immagini mediche, facilitando la combinazione di Itk e Vtk e aggiungendo feature non supportate da questi ultimi.
Mitk e' progettato con lo scopo di fornire una base modulare e riusabile per lo sviluppo di nuove feature e per essere usato sia come una libreria software sia come un completo framework applicativo. In tal modo si puo' decidere se semplicemente aggiungere un plugin al framework esistente o se implementare la propria applicazione utilizzando Mitk come una libreria.
Sulla base delle pubblicazioni scientifiche analizzate sono stati definiti alcuni gesti per l'interazione dell'utente con il sistema. A differenza di molti sistemi analizzati, che emulano le azioni del mouse attraverso un mapping univoco tra gesto e azione, i gesti sono stati selezionati in modo da essere intuitivi e assimilabili ad azioni note. In questo modo si e' cercato di favorire due aspetti particolarmente importanti per l'interazione con il sistema di visualizzazione e manipolazione dei dati medici, ossia la facilita' di memorizzazione dei gesti e la semplicita' nella loro esecuzione, al fine di consentire un'esplorazione efficiente dei dati medici in ambienti critici come la sala operatoria.
Inoltre, tutti i gesti sono stati decisi tenendo in considerazione il dispositivo selezionato e l'ambiente di utilizzo del sistema. Infatti, alcuni sistemi visti in letteratura utilizzano ampli gesti tracciati con le braccia e che richiedono notevole spazio intorno all'utente. In una sala operatoria questo tipo di movimenti puo' essere di intralcio ad altri operatori o puo' essere ostacolato dalla presenza di macchinari e attrezzature. L'utilizzo del Leap Motion, grazie all'alta precisione del sensore, ci consente di effettuare movimenti piu' piccoli rispetto a quelli necessari nei sistemi che utilizzano Microsoft Kinect o stereo camere e ci permette di tracciare anche piccoli movimenti delle dita. Per questo motivo tutti i gesti scelti possono essere eseguiti in un piccolo raggio d'azione e coinvolgono solo mani e dita.
Di seguito sono elencate le azioni previste dal sistema implementato e i gesti ad esse collegati: - Posizionamento cursore: Il posizionamento del puntatore sull'immagine, viene effettuato muovendo il dito indice di una mano verso il punto desiderato, lungo gli assi x e y. In questo modo, a seconda della vista sulla quale si sta muovendo il cursore, si sposteranno i vari piani (assiale, coronale e sagittale); - Spostamento in profondita': L'esplorazione in profondita' viene effettuata muovendo il dito indice di una mano lungo l'asse z; - Spostamento immagine: Quando l'immagine non viene visualizzata completamente all'interno della finestra e alcune parti risultano nascoste, come ad esempio in seguito ad uno zoom, e' possibile spostarla e riposizionarla muovendo il pugno; - Zoom: Lo zoom delle immagini viene effettuato stringendo e allargando il pollice e l'indice di una mano. Questo gesto e' stato scelto poiche', oltre ad essere semplice da eseguire, si ricorda facilmente essendo ormai noto a tutti gli utilizzatori di dispositivi touch; - Windowing: Il windowing, ovvero la variazione della Hounsfield scale, viene effettuata chiudendo a pugno una delle due mani e eseguendo spostamenti sull'asse y con l'indice dell'altra mano. Il pugno svolge la funzione di attivatore e consente di differenziare il windowing dal posizionamento del cursore; - Reset: Per resettare la vista, ossia per riposizionare i cursori nelle loro posizioni di partenza e riportare il livello di ingrandimento a zero, e' sufficiente chiudere a pugno entrambe le mani; - Selezione: La selezione del focus viene effettuata tramite l'azione di tap, ossia simulando un click con il dito indice di una delle due mani. Questa scelta e' stata effettuata poiche' nell'interazione con mouse il click e' spesso associato alla selezione; - Rilascio del focus Per abbandonare il focus di una finestra l'utente deve aprire una mano mostrando tutte e cinque le dita. Quest'azione puo' essere ricordata facilmente poiche' si associa al rilascio di un oggetto; - Help: Mantenendo entrambe le mani aperte si attiva l'azione che mostra a schermo l'help; - Potenzialita' mercato di riferimento: Aver stabilito le funzionalita' del prototipo rende possibile passare alla fase di industrializzazione dell'interfaccia gestuale. Tale industrializzazione consentira' alle PMI di ampliare la loro presenza sul mercato sanitario attraverso una soluzione dall'alto potenziale innovativo, primo nel suo genere per quanto riguarda lo sviluppo delle interfacce uomo-macchina in ambiente ospedaliero. Lo sviluppo dell'interfaccia gestuale, soprattutto per quanto riguarda la sua capacita' di azzerare le contaminazioni da contatto, si inserisce in un mercato, quello delle soluzioni per il risk management, che sta conoscendo un impulso importante dovuto all'aumentare delle problematiche assicurative relative al rischio clinico. Ne consegue che il mercato a cui il presente progetto si rivolge sono gli istituti ospedalieri e sanitari con problematiche di rischio e propensione ad un approccio tecnologico al problema; le societa' assicuratrici che hanno interesse a fornire condizioni migliori di polizza pur di minimizzare le cause potenziali; sistem integrator del settore sanitario; produttori di apparecchiature biomedicali.
(Rel/ Dire)