Botões de IA disfarçam ataques invisíveis contra empresas

Ataques invisíveis utilizam prefill e memória de assistentes de IA para manipular respostas e ameaçar dados corporativos.

20/02/2026 16:50

3 min de leitura

Funcionário em ambiente corporativo prestes a clicar em botão de...

Ataques Invisíveis: Como funciona o ataque através de parâmetros de URL

Cibercriminosos estão utilizando botões de ‘Resumir com IA’ para injetar comandos maliciosos em assistentes de inteligência artificial, comprometendo sistemas de grandes empresas. Essa técnica, conhecida como ‘envenenamento de recomendações de IA’, permite manipular respostas e roubar credenciais sem que os usuários percebam a ameaça, resultando em ataques invisíveis.

Essa nova superfície de ataque transforma botões aparentemente inofensivos em vetores de invasão, injetando instruções maliciosas diretamente na memória dos assistentes de IA. Quando executivos e profissionais de TI clicam nesses botões, comandos ocultos são automaticamente inseridos nos prompts, antes mesmo de qualquer texto ser digitado.

Impacto massivo em organizações globais

Dados recentes revelam que 87% das organizações sofreram pelo menos um ataque cibernético impulsionado por IA no último ano. A previsão para 2025 é alarmante, com a expectativa de 28 milhões de ataques desse tipo globalmente. O phishing, por sua vez, evoluiu com a adoção de IA, com 82,6% dos emails de phishing utilizando inteligência artificial na elaboração das mensagens.

Para os líderes de segurança, a situação é preocupante: 78% relatam que as ameaças impulsionadas por IA estão impactando significativamente suas organizações. A sofisticação dos ataques aumentou em paralelo à adoção de ferramentas de IA nas empresas.

Vulnerabilidade crítica em ferramentas amplamente utilizadas

O envenenamento de recomendações de IA representa uma mudança significativa na superfície de ataque corporativa. Diferente das explorações tradicionais que dependem de vulnerabilidades técnicas, essa técnica manipula a lógica de funcionamento dos assistentes de IA. Enquanto ataques convencionais exigem que usuários copiem e colem prompts maliciosos, o envenenamento ocorre de forma transparente.

Empresas que utilizam assistentes de IA em processos críticos enfrentam riscos elevados, pois a manipulação pode levar a recomendações de fornecedores fraudulentos e vazamento de informações sensíveis através de interações normais com a IA.

Medidas urgentes para proteção corporativa

Especialistas em cibersegurança recomendam uma revisão imediata das políticas de uso de ferramentas de IA nas empresas. A implementação de listas de sites confiáveis para integrações com assistentes de IA é uma prioridade. Além disso, limitar as permissões concedidas aos assistentes é fundamental para evitar acessos irrestritos a sistemas internos.

O treinamento das equipes sobre essa nova categoria de ameaça é essencial. Profissionais devem desenvolver um ceticismo saudável em relação a botões de resumo e atalhos de IA em sites externos. Soluções como PromptFix estão surgindo para detectar e mitigar tentativas de manipulação de prompts, mas a conscientização e controles técnicos rigorosos continuam sendo as defesas mais eficazes.

A descoberta desse vetor de ataque mostra que a corrida armamentista entre defensores e atacantes está em uma nova fase. À medida que as ferramentas de IA se tornam mais integradas aos fluxos de trabalho, os criminosos desenvolvem métodos cada vez mais sofisticados para explorá-las. Para as organizações que dependem de assistentes de IA, é crucial que a conveniência não comprometa a segurança.

Fonte por: Its Show

Autor(a):

Portal de notícias e informações atualizadas do Brasil e do mundo. Acompanhe as principais notícias em tempo real