IA generativa provoca mais que o dobro de violações de dados em empresas em 2025

Casos de violações de dados em inteligência artificial generativa dobram em 2025, com 223 incidentes mensais registrados.

2 min de leitura
Imagem de um profissional interagindo com uma tela de aviso de sistema de segurança de computador, destacando um alerta com ícone de aviso e código de programação, setor, Kaspersky, violações

Imagem de um profissional interagindo com uma tela de aviso de sistema de segurança de computador, destacando um alerta com ícone de aviso e código de programação, setor, Kaspersky, violações

Crescimento das Violações de Dados em IA Generativa

Em 2025, os casos de violações de políticas de dados relacionados a ferramentas de inteligência artificial generativa aumentaram significativamente, com uma média de 223 incidentes mensais, mais que o dobro do ano anterior. Esse crescimento está atrelado ao aumento no número de usuários e ao volume de prompts, que cresceram 200% e 500%, respectivamente, no último ano.

Estudo da Netskope Revela Dados Alarmantes

Essas informações são parte do Cloud and Threat Report: 2026, elaborado pela Netskope, que analisa dados de uso anonimizados coletados entre outubro de 2024 e 2025. O estudo examina táticas de atacantes, comportamento dos usuários e políticas organizacionais.

De acordo com o relatório, cerca de 50% das empresas ainda não implementaram políticas eficazes de proteção de dados para aplicações de IA generativa. Isso indica que dados sensíveis podem estar sendo enviados para ferramentas de IA sem a devida detecção, e que aplicações pessoais de nuvem são responsáveis por 60% dos incidentes de vazamento de dados internos.

Phishing e Acesso a Ferramentas Corporativas

O phishing continua a ser um vetor de ataque relevante, com 87 em cada 10 mil usuários clicando em links suspeitos mensalmente, embora tenha havido uma leve redução ao longo do tempo. O estudo também aponta que as empresas estão aumentando o acesso a versões corporativas de ferramentas de IA generativa, reduzindo a proporção de usuários que utilizam apenas contas pessoais de 78% para 47%. Além disso, 90% das empresas já bloqueiam ativamente uma ou mais aplicações consideradas de risco.

Recomendações para Segurança em IA

Ray Canzanese, diretor do Netskope Threat Labs, destaca que a adoção de IA generativa criou um perfil de risco complexo. Nesse contexto, é desafiador acompanhar novas ameaças, e os princípios básicos de segurança podem ser negligenciados. Ele recomenda que as equipes adotem uma postura consciente em relação ao uso de IA, atualizando políticas e utilizando ferramentas existentes, como DLP, para equilibrar inovação e segurança.

Conclusão

O aumento das violações de dados em ferramentas de IA generativa ressalta a necessidade urgente de políticas de segurança mais robustas nas empresas. A conscientização e a adoção de práticas seguras são essenciais para mitigar riscos e proteger informações sensíveis.

Fonte por: It Forum

Sair da versão mobile