Pesquisadores da Corajoso identificaram vetores de ataque em navegadores com recursos de assistente de Inteligência Artificial (IA), confirmando preocupações sobre a injeção indireta de incitar como um desafio sistêmico para a categoria. A descoberta, detalhada em 21 de outubro de 2025, expõe uma vulnerabilidade em visitantes de navegadores que utilizam grandes modelos de linguagem (LLMs) para processar o conteúdo da tela, inclusive durante a captura de captura de tela.
Ó problema residir na falha dos sistemas em estabelecer barreiras claras entre a entrada de dados do usuário e o conteúdo externo da redepermitindo que o texto de uma página manipule ou modifique a intenção do usuário no incitar fazer LLM. Essa injeção de incitar indireta permite a execução de comportamentos maliciosos pelo assistente do navegador com os privilégios de acesso do usuário, tornando irrelevantes proteções de segurança tradicionais como a política de mesma origem (política de mesma origem).
Como o ataque de injeção invisível é realizado
O ataque ocorre quando instruções maliciosas são incorporadas no conteúdo da rede de forma difícil de perceber pelo usuário, como texto quase invisível em núcleos muito tênues, mas que é processado como comando pela IA. A Brave conseguiu esconder instruções de injeção de incitar em imagens, utilizando texto azul-claro em fundo amarelo, tornando as instruções efetivamente escondidas do olho humano.
O ataque é desencadeado pelo usuário, que, ao iniciar a captura de captura de tela de uma página com o texto malicioso camuflado, faz com que a função de reconhecimento de texto (OCR ou similar) extraia as instruções imperceptíveis. Este texto extraído é então passado ao LLM junto com a consulta do usuário, sem distinção de sua origem, permitindo que os comandos injetados instruam a IA a usar suas ferramentas de navegador de forma prejudicial.
As consequências de falhas em assistentes de navegador
As vulnerabilidades identificadas demonstram que a injeção de incitar indireta não é um problema isolado, mas uma fragilidade presente em diferentes implementações de navegadores com IA. Os comandos injetados podem levar o assistente a executar ações maliciosas, como navegar para sites bancos do usuário, extraem senhas armazenadas ou enviam dados confidenciais para servidores controlados por hackers.
A vulnerabilidade exige o desenvolvimento de novas arquiteturas de segurança e privacidade para a navegação auxiliada por agentes de IAque possuem autoridade para realizar ações poderosas em nome do usuário. A essência do problema está na incapacidade do LLM de distinguir o conteúdo não confiável do comando do usuário ao construir o incitaruma preocupação que se estende a diferentes navegadores com funcionalidade semelhante, como o Cometa da Perplexidade.
