Assistenti vocali: conversazioni a rischio? Nuovo attacco aggira la crittografia
Come hacker potrebbero carpire informazioni sensibili dalle tue conversazioni con gli assistenti vocali
Introduzione:
Gli assistenti vocali sono diventati parte integrante della nostra vita quotidiana. Li usiamo per fare domande, controllare dispositivi smart e persino per ricevere consigli personalizzati. Ma quanto sono sicuri questi sistemi? Un nuovo studio di ricercatori israeliani ha scoperto un metodo per aggirare la crittografia e accedere a conversazioni private.
La vulnerabilità:
La maggior parte degli assistenti vocali utilizza modelli di linguaggio avanzati (LLM) per comunicare con gli utenti. Questi modelli inviano le loro risposte come una serie di “token”, ovvero i singoli elementi che compongono una frase. Sebbene la comunicazione sia crittografata, la dimensione dei pacchetti di dati inviati dall’assistente può rivelare la lunghezza dei token. In teoria, questo permetterebbe a malintenzionati di ricostruire il contenuto delle conversazioni.
Ricostruzione delle conversazioni:
Lo studio dimostra che è possibile ricostruire il 29% delle risposte dell’assistente e di individuare l’argomento del 55% delle conversazioni analizzando la sequenza delle lunghezze dei token.
Come contrastare la minaccia:
I ricercatori suggeriscono di aggiungere “padding” casuale ai messaggi, ovvero dati inutili che nascondono la reale lunghezza dei token e rendono impossibile dedurre informazioni dalle dimensioni dei pacchetti.
Google al sicuro (per ora):
Lo studio sottolinea che l’attacco funziona su assistenti come OpenAI ChatGPT-4 e Microsoft’s Copilot, mentre Google Gemini sembra immune grazie a un diverso sistema di comunicazione.
Aziende già al lavoro:
Cloudflare, leader nel settore della sicurezza informatica, ha già implementato contromisure per proteggere i propri prodotti di intelligenza artificiale e quelli dei propri clienti.