NEWS:

Il Governo punta sulla ‘filigranatura’ per la cybersecurity. Di cosa si tratta

Il sottosegretario all'Editoria Barachini: "Chiunque dotato di pc e connessione può verificare che il file è integro"

Pubblicato:24-04-2024 17:28
Ultimo aggiornamento:24-04-2024 17:28

cybersecurity
FacebookLinkedInXEmailWhatsApp

ROMA – “La nostra ispirazione è una visione umano-centrica dell’innovazione. Investire in tecnologia è decisivo per il nostro Paese, ma il processo deve sempre essere accompagnato dall’intenzione di migliorare le condizioni di vita dei cittadini. Dal punto di vista dell’informazione abbiamo a cuore l’integrità del sistema, che può essere distorto dagli automatismi digitali con conseguenze insondabili sulla formazione delle opinioni e della coscienza collettiva”. Alberto Barachini, sottosegretario alla Presidenza del Consiglio con delega all’informazione e all’editoria, commenta così, in una intervista al Messaggero, il disegno di legge sull’Intelligenza artificiale, la via italiana contro i rischi degli algoritmi in attesa del via libero all’Ai Act europeo. “Un pericolo tanto più insidioso soprattutto a pochi mesi da scadenze elettorali internazionali di fondamentale importanza e di una costante guerra ibrida dell’informazione. Il testo approvato ieri è la conferma della validità della visione italiana sulla necessità di governare l’intelligenza artificiale”. 

LA FILIGRANATURA COME STRUMENTO PER TUTELARE L’INTEGRITÀ INFORMATIVA

Il sottosegretario con delega all’Editoria si sofferma sullo strumento della filigranatura. “La Commissione AI per l’Informazione ne ha evidenziato la validità utilizzandolo in primis per la stessa Relazione consegnata al premier. Funziona, infatti, con qualunque supporto digitale e quindi video, immagini, testo o qualunque altro tipo di file. Un passo importante, questo, anche in vista di altri supporti digitali che potrebbero nascere in futuro e che sarebbero comunque filigranabili. Inoltre il marchio con filigranatura si basa sulle più moderne tecniche di crittografia dove la cybersecurity è massima e questo permette di non essere attaccabili da altre intelligenze artificiali. Infine, consente la verificabilità e il tracciamento dell’informazione in maniera pubblica e trasparente. Chiunque dotato di un pc e una connessione a Internet può verificare in autonomia che il file è integro e originario”. 

CAPITOLO DEEP FAKE

“Il significato è innanzitutto etico e di sicurezza per i cittadini e per le nostre democrazie. Il ddl, infatti, non solo interviene introducendo delle circostanze aggravanti in relazione all’impiego di sistemi di intelligenza artificiale nella commissione dei reati, ma introduce anche una nuova, autonoma, fattispecie di reato, che informalmente chiamiamo di “deep fake”. Si vuole punire chiunque cagioni ad altri un danno ingiusto, mediante diffusione di immagini, video o audio manipolati in tutto o in parte, generati o alterati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità”. 


LE SANZIONI

“Le aggravanti descritte determinano, com’è ovvio, un aumento della pena stabilita per i reati ai quali afferiscono. Quanto al reato di “deep fake”, è stata prevista la pena detentiva da uno a cinque anni”. 

LE RISORSE MESSE A DISPOSIZIONE DAL GOVERNO

“Il governo si è mosso con rapidità mettendo a disposizione, pur in un contesto economico molto complesso, risorse ingenti. Il paragone con gli altri paesi non mi entusiasma mai, ogni realtà ha le sue dinamiche e le sue esigenze”.

Le notizie del sito Dire sono utilizzabili e riproducibili, a condizione di citare espressamente la fonte Agenzia DIRE e l’indirizzo www.dire.it