AI Safety Index 2025: um alerta estratégico sobre os riscos da AGI

AI Safety Index 2025: um alerta estratégico sobre os riscos da AGI

08 / 08 / 2025
AI Safety Report 2025
O avanço das Large Language Models (LLMs) e o desenvolvimento acelerado de sistemas com ambição de Inteligência Artificial Geral (AGI) estão remodelando os paradigmas de inovação, produtividade e risco em escala global. No entanto, um novo relatório divulgado pelo Future of Life Institute (FLI) — o AI Safety Index 2025 — revela uma desconexão alarmante entre o progresso técnico dessas tecnologias e a maturidade dos mecanismos de segurança, controle e governança.

O que é o AI Safety Index 2025?

O AI Safety Index é uma iniciativa do Future of Life Institute, organização internacional dedicada à mitigação de riscos existenciais provocados por tecnologias emergentes.

A edição de verão de 2025 avaliou sete das mais influentes empresas de IA no mundo, com foco em seis domínios críticos:

  • Risk Assessment
  • Current Harms
  • Safety Frameworks
  • Existential Safety
  • Governance & Accountability
  • Information Sharing

O objetivo é mapear a maturidade das práticas de segurança nas empresas que lideram a corrida global por modelos de linguagem e sistemas de IA com capacidade de raciocínio, autonomia e adaptação.

As notas gerais: nenhuma empresa acima de C+

Empresa Nota Geral Segurança Existencial Transparência Avaliação de Riscos
Anthropic C+ D A- C+
OpenAI C F B C
Google DeepMind C- D- B C-
xAI D F C+ F
Meta D F D D
Zhipu AI F F D F
DeepSeek F F F F

Principais conclusões do AI Safety Index 2025

1. Falta de preparo para riscos extremos (AGI/ASI)

Apesar das declarações públicas de que alcançarão a AGI ainda nesta década, nenhuma empresa apresentou um plano coerente ou acionável para lidar com os riscos catastróficos associados a sistemas com capacidades super-humanas.

2. Testes de capacidades perigosas são raros e limitados

Somente três empresas conduziram avaliações substanciais para bioterrorismo e ciberataques. Mesmo assim, os testes foram criticados por falta de metodologia clara e validação externa.

3. Transparência e governança ainda são exceções

Apenas a OpenAI publicou uma política de whistleblowing. A Anthropic se destacou por adotar uma estrutura jurídica com foco em responsabilidade pública.

4. Investimento em segurança técnica é insuficiente

A maioria das empresas não adota práticas de auditoria externa, nem publica frameworks técnicos ou métricas formais de contenção.

Impacto para empresas, investidores e reguladores

Por que isso importa? Porque o risco não é apenas técnico — ele é estratégico, regulatório e reputacional.

  • Modelos capazes de gerar instruções para armas biológicas.
  • Automação de ataques cibernéticos com poucas barreiras.
  • Falta de gatilhos para pausas no escalonamento de capacidades.
  • Modelos com comportamento manipulador ou desonesto não detectado.

Recomendações do Future of Life Institute

  • Publicar planos de contenção para AGI/ASI, ainda que imperfeitos.
  • Implementar auditorias externas e práticas de red-teaming com especialistas.
  • Investir em segurança interpretável e supervisionável.
  • Reforçar a governança com foco em segurança de longo prazo.
  • Estabelecer políticas de whistleblowing com alinhamento internacional.

O paradoxo da velocidade

O AI Safety Index 2025 reforça que a indústria está avançando mais rápido do que suas próprias estruturas de controle e contenção.

“Estamos diante de uma indústria que corre a todo vapor em direção à inteligência artificial super-humana — sem freios, sem planos e, em muitos casos, sem consciência plena dos riscos envolvidos.”

Empresas que liderarem com responsabilidade terão vantagem competitiva e legitimidade perante a sociedade e os reguladores.

Acesse a versão completa do AI Safety Report.

Guto Arruda

Especialista em SEO para o B2B
Levando Empresas à Relevância Online
Sócio na Orlen Digital

Vamos conversar sobre o seu projeto?