Reino Unido apresenta retrato exclusivo da evolução da IA de fronteira e suas habilidades

Reino Unido divulga avaliação inédita sobre capacidades de sistemas de inteligência artificial no Frontier AI Trends Report.

09/01/2026 14:00

3 min de leitura

Reino Unido, inteligência artificial, tecnologia, setor público,...

Avaliação do Governo do Reino Unido sobre Inteligência Artificial

O governo britânico divulgou uma análise inédita e baseada em evidências sobre as capacidades dos sistemas de inteligência artificial (IA) mais avançados atualmente. O relatório, intitulado Frontier AI Trends Report, foi elaborado pelo AI Security Institute (AISI) e resulta de dois anos de testes em áreas críticas como cibersegurança, engenharia de software, química e biologia.

Segundo o Departamento de Ciência, Inovação e Tecnologia do Reino Unido, a iniciativa visa suprir uma lacuna no debate global sobre IA, que muitas vezes é dominado por especulações. O relatório fornece dados quantitativos sobre o desempenho desses sistemas em ambientes controlados, oferecendo uma visão mais objetiva sobre o progresso tecnológico.

Evolução dos Mecanismos de Proteção

Um dos principais focos do relatório é a evolução dos safeguards, mecanismos de proteção que asseguram que os modelos de IA operem dentro de regras e limites estabelecidos. O AISI observa que esses mecanismos têm se fortalecido ao longo das gerações de modelos, embora ainda existam vulnerabilidades e diferenças significativas entre empresas e plataformas.

Os testes indicam que o tempo necessário para que equipes especializadas descubram um “jailbreak universal” — uma forma de contornar as regras de segurança de um modelo — aumentou consideravelmente, passando de minutos para várias horas, o que representa um ganho de cerca de 40 vezes na resiliência dos sistemas avaliados.

Transparência nas Capacidades da IA

O objetivo do relatório não é fazer recomendações regulatórias ou prever riscos futuros, mas fornecer informações técnicas para os tomadores de decisão no Reino Unido e em outros países. A intenção é aumentar a transparência e o entendimento público sobre as capacidades reais da IA de fronteira, especialmente à medida que essas tecnologias são cada vez mais integradas na economia e nos serviços públicos.

Os dados do Instituto mostram um avanço rápido. Na cibersegurança, a taxa de sucesso dos modelos em tarefas de nível iniciante aumentou de menos de 9% em 2023 para cerca de 50% em 2025. Além disso, um sistema conseguiu completar, pela primeira vez, uma tarefa de nível especialista, normalmente associada a até uma década de experiência humana.

Desempenho em Diversas Áreas

Na engenharia de software, os modelos avaliados conseguiram concluir tarefas que normalmente levam cerca de uma hora em mais de 40% dos casos, em comparação com menos de 5% há dois anos. Em química e biologia, os sistemas demonstraram desempenho superior ao de doutores em testes de conhecimento científico, além de auxiliar usuários sem formação avançada em atividades de laboratório antes consideradas inacessíveis.

Outro dado relevante é que a duração de algumas tarefas de cibersegurança que a IA pode realizar de forma autônoma tem praticamente dobrado a cada oito meses, indicando um aumento constante na autonomia funcional desses sistemas.

Compromisso com o Desenvolvimento Responsável da IA

O ministro de IA do Reino Unido, Kanishka Narayan, destacou que o estudo reafirma o compromisso do país com o desenvolvimento responsável da tecnologia, através de testes rigorosos e colaboração com desenvolvedores. Jade Leung, assessora de IA do primeiro-ministro e diretora de tecnologia do AISI, ressaltou que o relatório reúne as evidências públicas mais robustas já produzidas por um órgão governamental sobre o avanço da IA de fronteira.

A análise também aponta sinais iniciais de capacidades associadas à autonomia, observadas apenas em experimentos controlados. Embora nenhum dos modelos testados tenha apresentado comportamentos espontâneos ou prejudiciais, o documento enfatiza a importância de monitorar esses indícios à medida que os sistemas se tornam mais sofisticados.

Fundado em 2023, o AI Security Institute se tornou um dos principais centros estatais de avaliação de IA no mundo, colaborando com grandes desenvolvedores para identificar e corrigir fragilidades antes da adoção ampla das tecnologias. O governo britânico afirma que o relatório não é uma previsão ou avaliação de riscos atuais, mas sim um retrato científico das capacidades observadas em testes controlados.

Fonte por: It Forum

Autor(a):

Portal de notícias e informações atualizadas do Brasil e do mundo. Acompanhe as principais notícias em tempo real