Relatórios sobre ataques em IA geram divisão entre especialistas e revelam crise de confiança na cibersegurança

Profissionais de cibersegurança pedem mais transparência em incidentes, mas a reação à abertura de empresas de IA é polarizada.

3 min de leitura
hacker, ciberataque, redbelt, ddos, ipen, empresa, autenticação multifator, cibercrimes, hacking, ciberataques, capital aberto, geopolitica, suspeito

hacker, ciberataque, redbelt, ddos, ipen, empresa, autenticação multifator, cibercrimes, hacking, ciberataques, capital aberto, geopolitica, suspeito

Divisão na Comunidade de Cibersegurança sobre Transparência em IA

Nos últimos anos, especialistas em cibersegurança têm solicitado maior transparência nas comunicações sobre incidentes. Com o surgimento de empresas de inteligência artificial (IA) que começam a compartilhar informações sobre como seus sistemas são vulneráveis a ataques, a reação da comunidade se divide. Um relatório da Forrester revela que alguns profissionais consideram essas divulgações valiosas para melhorar as defesas, enquanto outros veem isso como uma estratégia de marketing.

Esse ceticismo é compreensível, pois a indústria de cibersegurança historicamente tem sido pouco transparente, divulgando falhas apenas quando forçada. Informações sobre ataques geralmente são mantidas em sigilo, através de acordos de confidencialidade. Contudo, analistas da Forrester alertam que essa desconfiança excessiva pode ser prejudicial, pois impede a leitura eficaz das ameaças e afasta as equipes de inteligência necessárias.

Uso de IA por Atacantes e suas Implicações

Os relatórios de empresas como OpenAI e Anthropic, analisados pela Forrester, indicam que os atacantes estão utilizando IA principalmente para aprimorar técnicas já existentes, em vez de desenvolver novos tipos de ataques. Isso inclui campanhas de phishing mais sofisticadas, criação rápida de malware e operações de influência em diversos idiomas.

A verdadeira vantagem da IA reside na sua capacidade de escalar e acelerar ataques. A tecnologia reduz barreiras, aumenta a produtividade dos adversários e antecipa um cenário de ataques mais autônomos. Relatos recentes mostram tentativas rudimentares de agentes que operam com mínima intervenção humana, informações que se tornam disponíveis devido à abertura de dados pelas plataformas.

Autocrítica e Transparência na Indústria de IA

A Forrester destaca que, ao contrário das práticas tradicionais, os fornecedores de IA têm começado a expor suas próprias falhas. Relatórios sobre vulnerabilidades e vetores de ataque estão sendo publicados de forma proativa, algo raro na indústria de segurança, onde muitas vezes é necessária uma intervenção governamental para que uma empresa admita riscos.

Essas divulgações criam uma pressão positiva, incentivando outras empresas a rever seus padrões de transparência e promovendo um modelo mais colaborativo de defesa.

Interesses Comerciais por trás da Transparência

Embora a abertura dos fornecedores de IA não seja totalmente altruísta, já que a confiança é um dos principais obstáculos à adoção corporativa da IA, a publicação de relatórios detalhados ajuda a reforçar a narrativa de que as empresas estão atentas a abusos em seus sistemas.

A Forrester argumenta que esse movimento beneficia o ecossistema ao reduzir a percepção de “caixa-preta” dos modelos de IA, demonstrar capacidade de autorregulação e criar uma base mais sólida para discussões regulatórias. No entanto, muitas organizações ainda subestimam o valor prático dessas publicações, tratando-as como ruído.

Conclusão e Recomendações para Líderes de Segurança

Para a Forrester, é essencial que as empresas mudem sua postura em relação a essas divulgações. Relatórios que detalham como criminosos tentam explorar ou contornar modelos de IA devem ser integrados às estratégias corporativas. Os analistas recomendam que líderes de segurança utilizem essas informações para dialogar com seus conselhos, justificar investimentos e reforçar políticas de governança para IA.

Além disso, esse material pode ser útil para guiar exercícios de red team focados em IA, validando controles e identificando brechas antes que sejam exploradas por atacantes.

Fonte por: It Forum

Sair da versão mobile