IA generativa provoca mais que o dobro de violações de dados em empresas em 2025

Casos de violações de dados em inteligência artificial generativa dobram em 2025, com 223 incidentes mensais registrados.

12/01/2026 10:50

2 min de leitura

Imagem de um profissional interagindo com uma tela de aviso de s...

Crescimento das Violações de Dados em IA Generativa

Em 2025, os casos de violações de políticas de dados relacionados a ferramentas de inteligência artificial generativa aumentaram significativamente, com uma média de 223 incidentes mensais, mais que o dobro do ano anterior. Esse crescimento está atrelado ao aumento no número de usuários e ao volume de prompts, que cresceram 200% e 500%, respectivamente, no último ano.

Estudo da Netskope Revela Dados Alarmantes

Essas informações são parte do Cloud and Threat Report: 2026, elaborado pela Netskope, que analisa dados de uso anonimizados coletados entre outubro de 2024 e 2025. O estudo examina táticas de atacantes, comportamento dos usuários e políticas organizacionais.

De acordo com o relatório, cerca de 50% das empresas ainda não implementaram políticas eficazes de proteção de dados para aplicações de IA generativa. Isso indica que dados sensíveis podem estar sendo enviados para ferramentas de IA sem a devida detecção, e que aplicações pessoais de nuvem são responsáveis por 60% dos incidentes de vazamento de dados internos.

Phishing e Acesso a Ferramentas Corporativas

O phishing continua a ser um vetor de ataque relevante, com 87 em cada 10 mil usuários clicando em links suspeitos mensalmente, embora tenha havido uma leve redução ao longo do tempo. O estudo também aponta que as empresas estão aumentando o acesso a versões corporativas de ferramentas de IA generativa, reduzindo a proporção de usuários que utilizam apenas contas pessoais de 78% para 47%. Além disso, 90% das empresas já bloqueiam ativamente uma ou mais aplicações consideradas de risco.

Recomendações para Segurança em IA

Ray Canzanese, diretor do Netskope Threat Labs, destaca que a adoção de IA generativa criou um perfil de risco complexo. Nesse contexto, é desafiador acompanhar novas ameaças, e os princípios básicos de segurança podem ser negligenciados. Ele recomenda que as equipes adotem uma postura consciente em relação ao uso de IA, atualizando políticas e utilizando ferramentas existentes, como DLP, para equilibrar inovação e segurança.

Conclusão

O aumento das violações de dados em ferramentas de IA generativa ressalta a necessidade urgente de políticas de segurança mais robustas nas empresas. A conscientização e a adoção de práticas seguras são essenciais para mitigar riscos e proteger informações sensíveis.

Fonte por: It Forum

Autor(a):

Portal de notícias e informações atualizadas do Brasil e do mundo. Acompanhe as principais notícias em tempo real