Pesquisadores da Microsoft relacionado um canal paralelo de ataque, chamado Whisper Leak, é capaz de revelar detalhes dos temas envolvidos em conversas com chatbots de IA, mesmo quando o tráfego está protegido por criptografia de ponta a ponta. A ameaça amplia os riscos de privacidade à medida que as ferramentas de IA se integram a setores sensíveis como saúde e jurídicos.
O ataque não exige quebra de criptografia. Ao analisar tamanhos de pacotes e pacotes entre eles, metadados associados a tokens gerados por modelos como OpenAI e Microsoft, os investigadores podem identificar detalhes detalhados, como discussões políticas ou questões legais, apenas pelo padrão do tráfego.
Em experimentos, pesquisadores treinaram classificados para distinguir questões sobre temas como “legalidade de lavagem de dinheiro” entre mais de 11 mil perguntas comuns. Utilizando tcpdump e modelos LightGBM, Bi-LSTM e BERT, atingiram mais de 98% de precisão em algumas situações, conseguindo sinalizar conversas sensíveis com altíssima certeza.
A pesquisa chama atenção para o potencial de abuso por agentes estatais, ISPs ou espiões em redes Wi-Fi, especialmente em regiões sob regimes opressivos onde buscar informações já representa risco real para o usuário.
Após a divulgação, a Microsoft trabalhou com parceiros como OpenAI, Mistral, xAI e seu próprio Azure para implementar medidas corretivas. A OpenAI, por exemplo, atualizou um campo de “ofuscação” que insere texto aleatório, mascarando o tamanho dos tokens transmitidos. A Mistral utilizou um parâmetro “p” para randomização semelhante, e o Azure mudou as mudanças, as soluções reduziram a exposição virtualmente a zero em testes recentes.
O código-fonte do ataque está disponível em repositório aberto no GitHub para estudos e conscientização. O caso reforça a urgência de políticas e soluções robustas para a privacidade envolvendo IA, visto que os ataques side-channel tendem a evoluir junto com a popularização dessas tecnologias.