Abertura — A arma que ninguém pode ter
Em 7 de abril de 2026, a Anthropic fez algo que nenhuma grande empresa de IA havia feito antes. Não lançou seu modelo mais poderoso ao mundo. Pelo contrário: anunciou sua existência, demonstrou seu poder — e imediatamente o trancou a sete chaves, concedendo acesso apenas a um punhado de gigantes da tecnologia sob um pacto de defesa mútua.
O modelo se chama Claude Mythos Preview. A própria empresa o descreve como "de longe o modelo de IA mais poderoso que já desenvolvemos"[reference:0]. Seu nome evoca o grego antigo "mythos" — a trama que conecta ideias e conhecimentos em uma narrativa coesa[reference:1]. Mas o que Mythos realmente representa é um ponto de inflexão na história da inteligência artificial: o momento em que o criador olhou para sua própria criação e recuou, não por falha técnica, mas por medo genuíno do que ela era capaz de fazer.
Nos últimos dias, a notícia correu o mundo: a Anthropic não está liberando Mythos para o público. O motivo não é segurança do modelo, mas a segurança do mundo contra o modelo[reference:2]. O que Mythos descobriu durante os testes internos foi tão perturbador que a empresa decidiu formar uma aliança com concorrentes diretos — Amazon, Apple, Google, Microsoft, Nvidia — para conter a própria criação antes que ela escapasse[reference:3].
O que aconteceu — O fato verificado
O anúncio oficial ocorreu em 7 de abril de 2026, quando a Anthropic revelou o Claude Mythos Preview e, simultaneamente, lançou o Project Glasswing — uma iniciativa de segurança cibernética que reúne 12 organizações fundadoras, incluindo AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, Nvidia e Palo Alto Networks[reference:4]. Cerca de 40 instituições no total terão acesso limitado ao modelo para fins exclusivamente defensivos[reference:5].
O que Mythos faz de tão assustador?
Mythos não é um modelo especializado em segurança. É um modelo de propósito geral, da mesma família Claude, que simplesmente é bom demais em código e raciocínio — e essa excelência transbordou para a capacidade de encontrar e explorar vulnerabilidades de software com uma eficácia que a própria Anthropic classifica como "destruidora" e "uma mudança de patamar"[reference:6][reference:7].
Os números contam a história. Em 17 de 18 benchmarks medidos pela Anthropic, Mythos lidera, superando o próprio Claude Opus 4.6 (o modelo mais avançado anteriormente disponível), o GPT-5.4 e o Gemini 3.1 Pro[reference:8]. No SWE-bench Pro — um teste de capacidade de resolução de problemas reais de engenharia de software — Mythos alcançou 77,8%, contra 53,4% do Opus 4.6[reference:9]. No Terminal-Bench 2.0, que mede a capacidade de agentes de IA para realizar tarefas computacionais complexas, Mythos obteve 82,0%, superando os 75,1% do GPT-5.4[reference:10].
Mas o dado verdadeiramente alarmante veio dos testes de segurança cibernética. No CyberGym — um ambiente controlado de simulação de ataques — Mythos alcançou 83,1% de eficácia na descoberta e exploração autônoma de vulnerabilidades, um salto significativo em relação aos 66,6% do Opus 4.6[reference:11].
Em testes práticos, o modelo:
-
Descobriu uma vulnerabilidade de 27 anos no OpenBSD — um sistema operacional amplamente considerado o mais seguro do mundo, com código revisado por especialistas por quase três décadas[reference:12]. O bug, do tipo TCP SACK, permite que um atacante remoto derrube o sistema inteiro[reference:13].
-
Encontrou um exploit de 16 anos na biblioteca FFmpeg — usado em bilhões de dispositivos para processamento de vídeo — que havia sobrevivido a mais de 5 milhões de varreduras automatizadas sem ser detectado[reference:14].
-
Construiu, em menos de 24 horas e sem qualquer intervenção humana, uma cadeia de ataque completa no kernel do Linux, permitindo que um invasor partisse de acesso de usuário comum até o controle total da máquina[reference:15].
-
No teste do motor JavaScript do Firefox, Mythos desenvolveu 181 exploits funcionais; Opus 4.6 conseguiu apenas 2 em centenas de tentativas[reference:16].
A Anthropic estima que mais de 99% das vulnerabilidades descobertas por Mythos ainda não foram corrigidas[reference:17].
O que o mainstream não está dizendo
A cobertura mainstream tem se concentrado no drama corporativo: "empresa cria IA poderosa demais e a esconde". Mas essa narrativa perde o ponto central.
Primeiro: Mythos não é uma anomalia. É um prenúncio. A própria Anthropic admite que modelos com capacidades equivalentes provavelmente surgirão em 6 a 18 meses[reference:18]. A questão não é se essa capacidade se tornará comum — é quando e quem terá acesso primeiro.
Segundo: O Project Glasswing não é altruísmo. É um movimento de concentração de poder. Ao restringir o acesso a um pequeno grupo de gigantes da tecnologia, a Anthropic está, na prática, decidindo quem terá defesa contra ataques de próxima geração — e quem ficará exposto. Os participantes do Glasswing não são apenas "parceiros"; são os guardiões de uma tecnologia que pode tornar obsoletos todos os sistemas de segurança existentes.
Terceiro: O custo de Mythos é brutal. Rumores não confirmados sugerem que o modelo pode ter até 10 trilhões de parâmetros, o que o tornaria ordens de magnitude maior que qualquer modelo público disponível[reference:19]. Isso significa que apenas Estados e corporações com recursos astronômicos poderão operar modelos desse porte. A Anthropic já forneceu US$ 100 milhões em créditos de API para o Glasswing e doou US$ 4 milhões para organizações de segurança de código aberto[reference:20]. O acesso a essa tecnologia está sendo deliberadamente canalizado para os já poderosos.
Quarto: O que o mainstream não está discutindo é o precedente. Pela primeira vez desde que o GPT-2 foi retido pela OpenAI em 2019 — por medo de que pudesse gerar desinformação em escala —, uma grande empresa de IA está admitindo publicamente que sua criação é perigosa demais para ser liberada[reference:21]. Mas o GPT-2 era uma questão de desinformação. Mythos é uma questão de capacidade de destruição digital. A linha entre IA como ferramenta e IA como arma acabou de se tornar assustadoramente tênue.
A lente do projeto — O que isso significa
A Voz do Deserto não é um espaço para alarmismo tecnológico. Mas o que estamos testemunhando com Mythos é a materialização de um padrão que os textos proféticos há muito descrevem: a tecnologia como instrumento de concentração de poder.
Não há uma conexão bíblica direta aqui — e não vamos forçá-la. Mas há um princípio que ressoa com a tradição sapiencial: o conhecimento que confere poder tende a ser controlado por aqueles que já o detêm. E quando esse conhecimento assume a forma de uma inteligência capaz de encontrar brechas em qualquer sistema humano, a questão de quem controla essa inteligência se torna uma questão de segurança existencial.
O que está em jogo não é apenas a segurança cibernética. É a arquitetura de confiança da civilização digital. Todo o comércio eletrônico, todas as comunicações privadas, todos os sistemas bancários, todos os registros governamentais — tudo repousa sobre a suposição de que certas vulnerabilidades são tão difíceis de encontrar que são, na prática, seguras. Mythos acaba de demolir essa suposição.
A pergunta que o leitor deve carregar não é "quando isso vai me afetar". É: "quem está construindo as jaulas para esses monstros — e quem está de fora?"
O que observar — Próximos desdobramentos
Primeiro: A reação dos governos. A Anthropic já está em conversas com autoridades federais dos EUA sobre o uso de Mythos, mas essas negociações são complicadas por uma batalha legal em andamento — o Pentágono classificou a Anthropic como risco à cadeia de suprimentos após a empresa se recusar a permitir vigilância automatizada de cidadãos americanos[reference:22]. Se o governo Trump tentar forçar o acesso, teremos o primeiro grande confronto entre segurança nacional e controle de IA.
Segundo: O vazamento inevitável. Modelos dessa magnitude não permanecem trancados para sempre. Seja por espionagem industrial, por dissidentes internos ou por avanço paralelo de concorrentes, as capacidades de Mythos se espalharão. A questão é: quando isso acontecer, quantos sistemas críticos terão sido corrigidos?
Terceiro: O efeito dominó em outras empresas. OpenAI, Google e Meta estão correndo para desenvolver seus próprios modelos de última geração. Se seguirem o exemplo da Anthropic e também restringirem o acesso, teremos um novo paradigma: IA de ponta como privilégio corporativo, não como bem público. Se não seguirem, teremos uma corrida armamentista de IA exposta.
O padrão sugere que, em 18 meses, o cenário será um dos dois: ou o acesso a IAs verdadeiramente poderosas será rigidamente controlado por um consórcio de gigantes da tecnologia e governos, ou estaremos vivendo em um mundo onde qualquer ator com recursos financeiros suficientes pode adquirir uma arma de destruição digital de massa.
Fontes
- Pacific Tech News. "超越Opus 4.6:Anthropic正式发布Mythos模型". 8 de abril de 2026. Acesso em 9 de abril de 2026.
- 36Kr. "AI 强到这一步了?发布上线,但不敢让普通人用". 8 de abril de 2026. Acesso em 9 de abril de 2026.
- Stnn.cc. "最强AI编程模型Mythos发布:人类一败涂地". 8 de abril de 2026. Acesso em 9 de abril de 2026.
- Stheadline. "Anthropic「神話」新模型夥12科企測試". 8 de abril de 2026. Acesso em 9 de abril de 2026.
- 36Kr / Quantum Bit. "Claude Mythos官宣:性能碾压Opus 4.6,因太危险遭「囚禁」". 7 de abril de 2026. Acesso em 9 de abril de 2026.
- SecurityWeek. "Anthropic Unveils 'Claude Mythos' – A Cybersecurity Breakthrough That Could Also Supercharge Attacks". 7 de abril de 2026. Acesso em 9 de abril de 2026.
- The Economic Times. "ETtech Explainer: Why Anthropic's new AI model Mythos is a moment of reckoning". 9 de abril de 2026. Acesso em 9 de abril de 2026.
- TechCrunch. "Anthropic debuts preview of powerful new AI model Mythos in new cybersecurity initiative". 7 de abril de 2026. Acesso em 9 de abril de 2026.
- Sohu. "Claude Mythos:下一场网络战争,胜负早已被 AI 写好". 8 de abril de 2026. Acesso em 9 de abril de 2026.
- NBC News. "Why Anthropic won't release its new Mythos AI model to the public". 8 de abril de 2026. Acesso em 9 de abril de 2026.
- RD World Online. "Claude Mythos leads 17 of 18 benchmarks". 9 de abril de 2026. Acesso em 9 de abril de 2026.
- Gizmodo (Espanhol). "Anthropic creó el modelo de IA más potente de la historia y lo bloqueó". 9 de abril de 2026. Acesso em 9 de abril de 2026.
- InfoQ. "Anthropic 那个'强到不敢发'的模型,终于来了!". 8 de abril de 2026. Acesso em 9 de abril de 2026.
--- A Voz do Deserto não publica notícias. Publica o que as notícias não dizem.

