AI Safety Index 2025: um alerta estratégico sobre os riscos da AGI
AI Safety Index 2025: um alerta estratégico sobre os riscos da AGI

O que é o AI Safety Index 2025?
O AI Safety Index é uma iniciativa do Future of Life Institute, organização internacional dedicada à mitigação de riscos existenciais provocados por tecnologias emergentes.
A edição de verão de 2025 avaliou sete das mais influentes empresas de IA no mundo, com foco em seis domínios críticos:
- Risk Assessment
- Current Harms
- Safety Frameworks
- Existential Safety
- Governance & Accountability
- Information Sharing
O objetivo é mapear a maturidade das práticas de segurança nas empresas que lideram a corrida global por modelos de linguagem e sistemas de IA com capacidade de raciocínio, autonomia e adaptação.
As notas gerais: nenhuma empresa acima de C+
Empresa | Nota Geral | Segurança Existencial | Transparência | Avaliação de Riscos |
---|---|---|---|---|
Anthropic | C+ | D | A- | C+ |
OpenAI | C | F | B | C |
Google DeepMind | C- | D- | B | C- |
xAI | D | F | C+ | F |
Meta | D | F | D | D |
Zhipu AI | F | F | D | F |
DeepSeek | F | F | F | F |
Principais conclusões do AI Safety Index 2025
1. Falta de preparo para riscos extremos (AGI/ASI)
Apesar das declarações públicas de que alcançarão a AGI ainda nesta década, nenhuma empresa apresentou um plano coerente ou acionável para lidar com os riscos catastróficos associados a sistemas com capacidades super-humanas.
2. Testes de capacidades perigosas são raros e limitados
Somente três empresas conduziram avaliações substanciais para bioterrorismo e ciberataques. Mesmo assim, os testes foram criticados por falta de metodologia clara e validação externa.
3. Transparência e governança ainda são exceções
Apenas a OpenAI publicou uma política de whistleblowing. A Anthropic se destacou por adotar uma estrutura jurídica com foco em responsabilidade pública.
4. Investimento em segurança técnica é insuficiente
A maioria das empresas não adota práticas de auditoria externa, nem publica frameworks técnicos ou métricas formais de contenção.
Impacto para empresas, investidores e reguladores
Por que isso importa? Porque o risco não é apenas técnico — ele é estratégico, regulatório e reputacional.
- Modelos capazes de gerar instruções para armas biológicas.
- Automação de ataques cibernéticos com poucas barreiras.
- Falta de gatilhos para pausas no escalonamento de capacidades.
- Modelos com comportamento manipulador ou desonesto não detectado.
Recomendações do Future of Life Institute
- Publicar planos de contenção para AGI/ASI, ainda que imperfeitos.
- Implementar auditorias externas e práticas de red-teaming com especialistas.
- Investir em segurança interpretável e supervisionável.
- Reforçar a governança com foco em segurança de longo prazo.
- Estabelecer políticas de whistleblowing com alinhamento internacional.
O paradoxo da velocidade
O AI Safety Index 2025 reforça que a indústria está avançando mais rápido do que suas próprias estruturas de controle e contenção.
“Estamos diante de uma indústria que corre a todo vapor em direção à inteligência artificial super-humana — sem freios, sem planos e, em muitos casos, sem consciência plena dos riscos envolvidos.”
Empresas que liderarem com responsabilidade terão vantagem competitiva e legitimidade perante a sociedade e os reguladores.
Acesse a versão completa do AI Safety Report.