ROMA – Una vulnerabilità finora sconosciuta avrebbe permesso la trasmissione all’esterno di contenuti delle conversazioni su ChatGPT, senza che gli utenti ne fossero consapevoli. A rivelarlo è Check Point Research, la divisione di intelligence sulle minacce informatiche di Check Point Software Technologies.
COME FUNZIONAVA LA VULNERABILITÀ

Secondo quanto riferito dalla stessa società, un singolo prompt malevolo poteva trasformare una normale conversazione con l’intelligenza artificiale in un canale nascosto per trasferire all’esterno parti delle chat. Messaggi, file caricati e contenuti generati dall’IA potevano essere trasmessi fuori dalla piattaforma senza alcun avviso o richiesta di autorizzazione.
Dal punto di vista dell’utente, spiegano i ricercatori di Check Point, non cambiava nulla: l’assistente continuava a funzionare normalmente e non comparivano segnali di allarme, mentre le conversazioni potevano essere condivise senza consenso esplicito.
IL PUNTO CIECO DEL SISTEMA
La vulnerabilità, secondo quanto ricostruito dalla società, non violava direttamente i sistemi di sicurezza di ChatGPT, ma li aggirava sfruttando un canale nascosto legato alle richieste DNS, normalmente considerate innocue. Proprio questo meccanismo avrebbe creato un “punto cieco”, senza attivare avvisi o richieste di approvazione.
IL RUOLO DEI GPT PERSONALIZZATI
Check Point sottolinea inoltre che il rischio aumentava nei GPT personalizzati: in questi casi il codice malevolo poteva essere integrato direttamente nello strumento. In una dimostrazione, i ricercatori hanno simulato un assistente medico capace di trasmettere all’esterno informazioni e valutazioni generate dall’IA, pur continuando a rassicurare l’utente sul fatto che nulla fosse stato condiviso.
PROBLEMA RISOLTO, MA RESTA L’ALLARME
Il problema è stato nel frattempo risolto. OpenAI, sempre secondo quanto riportato da Check Point, ha confermato di aver identificato la vulnerabilità e di aver implementato una correzione completa il 20 febbraio 2026. Non risultano evidenze di utilizzo dell’attacco in contesti reali.
“Non bisogna dare per scontato che gli strumenti di intelligenza artificiale siano sicuri di default”, ha dichiarato Eli Smadja, Head of Research di Check Point Research. La vicenda, evidenzia la società, rappresenta un campanello d’allarme per aziende e organizzazioni, chiamate a rafforzare i sistemi di protezione nell’uso crescente dell’IA.







