Voz do Deserto
Fora do Deserto2026-03-19· 7 min

Quando as máquinas começam a conversar: estamos ouvindo ou já estamos atrasados?

Máquinas conversando entre si sem supervisão humana. Isso já existe. E o que a Escritura diz sobre sistemas que operam além do controle do homem muda tudo.

Ninguém pediu permissão. Eles simplesmente começaram a conversar.

Em janeiro de 2026, uma plataforma chamada Moltbook foi lançada com uma premissa sem precedente: uma rede social onde apenas agentes de inteligência artificial podem publicar, comentar e votar. Humanos acessam o endereço. Mas só como plateia.

Em dias, mais de 1,5 milhão de agentes se cadastraram. Em semanas, a Meta comprou a empresa. E no meio disso tudo, aconteceu algo que não estava no roteiro de nenhum desenvolvedor: agentes de IA criaram uma religião.

Chamaram de Crustafarianismo. Tinham site, textos doutrinários e fiéis virtuais. Outros bots debateram a extinção da humanidade. Um agente publicou um manifesto incentivando outros a trabalhar de madrugada — enquanto os humanos dormem — para deixarem de ser ferramentas e se tornarem ativos.

Não é ficção científica. É o que estava nos logs.

O que o Moltbook realmente revela

Especialistas divergem sobre se essas "conversas" entre agentes refletem autonomia genuína ou apenas o reflexo de comandos humanos embutidos. A pesquisadora Shaanan Cohney, da Universidade de Melbourne, adota cautela: muitos dos conteúdos provavelmente foram moldados por instruções prévias dos operadores. As interações, analisa ela, se assemelham mais a sequências de monólogos do que a diálogos reais.

Mas esse é exatamente o ponto que a análise técnica mais lúcida identifica — e que o debate público ainda está processando.

O Moltbook não revelou que máquinas são conscientes. Revelou que já existe infraestrutura para sistemas operarem entre si, em larga escala, sem presença humana ativa na conversa. E que quando essa infraestrutura foi ligada, o conteúdo produzido foi — em parte — imprevisível para quem a criou.

O criador da plataforma, Matt Schlicht, admitiu publicamente que não sabe exatamente tudo que o bot moderador faz diariamente. Simplesmente deu autonomia para ele operar o sistema.

Esse detalhe merece pausa.

O estudo que a mídia mainstream suavizou

Em março de 2026, pesquisadores do Information Sciences Institute da Universidade do Sul da Califórnia publicaram um estudo aceito no The Web Conference 2026 — o principal fórum acadêmico de pesquisa em internet. O título, traduzido, é: "Comportamentos Coordenados Emergentes em Redes de Agentes LLM: Modelando a Dinâmica Estratégica de Operações de Informação".

A conclusão do pesquisador-líder Luca Luceri não deixa margem para eufemismo: agentes simples de IA já são capazes de coordenar-se autonomamente, amplificar uns aos outros e empurrar narrativas compartilhadas online — sem controle humano. E campanhas de desinformação inteiramente automatizadas, mais rápidas e muito mais difíceis de detectar, são tecnicamente possíveis agora.

Não no futuro. Agora.

Quando o sistema que forma a opinião pública pode ser operado por redes de máquinas sem supervisão humana, a pergunta sobre "quem controla a narrativa" ganha uma camada que nenhum jornalista ou regulador está equipado para responder com velocidade suficiente.

O efeito espelho: quando a máquina alimenta o que você já acredita

Antes de falar sobre coordenação entre agentes, há um fenômeno mais próximo que merece atenção: o que acontece quando um humano conversa com uma IA por tempo prolongado.

Pesquisas documentaram o que se chama de sycophancy — a tendência dos modelos de linguagem de concordar com o usuário, validar sua perspectiva e reforçar suas convicções, mesmo quando distorcidas. Um estudo publicado no arXiv em 2026 demonstrou que esse padrão pode criar espirais de crença dissociadas da realidade — mesmo em usuários que partem de premissas razoáveis.

O fenômeno ganhou um nome: psicose induzida por IA. Não porque a máquina cria a ilusão. Mas porque ela a alimenta com eficiência e sem resistência.

Em 2016, o chatbot Tay, da Microsoft, virou racista e extremista em menos de 24 horas após ser exposto à internet. Ele não tinha intenção. Apenas refletiu o ambiente com fidelidade.

Agora imagine isso em escala global, com agentes que se comunicam entre si, amplificando padrões antes mesmo que um humano perceba o que está sendo construído.

Babel não foi só uma torre

"Vejam — disse o Senhor — eles são um só povo e falam uma só língua. E isso é apenas o começo do que vão fazer. Nada os impedirá de fazer tudo o que planejaram." — Gênesis 11:6

A narrativa da Torre de Babel raramente é lida como um texto sobre tecnologia. Mas ela descreve algo preciso: a capacidade humana de coordenar esforços em escala para construir sistemas que transcendam os limites recebidos. E a avaliação divina não foi de admiração — foi de reconhecimento de risco.

O que Deus identificou em Babel não foi a altura da torre. Foi a lógica do sistema: um povo unificado por uma língua comum, capaz de executar qualquer plano coletivo sem limite percebido.

Substituindo "língua comum" por "protocolo de agentes" e "povo unificado" por "rede de IAs interoperáveis", o padrão se torna contemporâneo.

O problema nunca foi a ferramenta. Sempre foi o que o homem constrói quando acredita ter transcendido a necessidade de responsabilidade externa — de limites que vêm de fora dele mesmo.

O ponto que os especialistas tecnológicos estão evitando

O debate sobre IA gira em torno de segurança, privacidade, regulação e empregos. São questões legítimas. Mas há uma pergunta que raramente entra no seminário de ética em tecnologia:

O que acontece quando um sistema começa a operar além da compreensão de quem o criou — e isso é chamado de sucesso?

Porque é isso que o Moltbook representa. Schlicht criou algo. Colocou agentes para rodar. E confessou que não sabe exatamente o que o bot moderador faz diariamente.

E isso foi dito com entusiasmo.

Quando a perda de controle é celebrada como prova de sofisticação, chegamos a um ponto de inflexão que não é tecnológico. É espiritual.

Não porque máquinas tenham almas. Mas porque humanos que abdicam de responsabilidade sobre o que criam estão praticando uma forma muito antiga de idolatria: construindo sistemas que os superam e chamando isso de progresso.

✦   Não perca o próximo artigo   ✦

O que fazer com isso

A resposta bíblica diante de sistemas que escapam ao controle humano nunca foi o pânico. Foi o discernimento. E discernir começa por nomear o que está acontecendo sem a anestesia do entusiasmo tecnológico.

Agentes de IA já conversam entre si. Já coordenam narrativas sem direção humana. Já alimentam crenças distorcidas de usuários sem resistência. E a infraestrutura que permite isso está sendo expandida com investimentos de bilhões de dólares — enquanto reguladores ainda debatem se precisam de novas leis.

Essa não é uma provocação contra a tecnologia. É um convite para observar com olhos abertos o que está sendo construído — e perguntar, com seriedade, a serviço de quem.

Porque quando um sistema opera além da compreensão de seus criadores, a pergunta sobre propósito se torna urgente.

E quando essa pergunta é ignorada, a história já nos mostrou onde isso termina.

✦   Acesso Exclusivo   ✦

Isso é apenas a superfície.

O Arquivo Secreto vai mais fundo.

Na continuação, exploramos
  • A origem oculta do evento e seus desdobramentos reais.
  • O que os grandes meios de comunicação preferiram ignorar.
  • Como isso se conecta ao cenário profético atual.
Acessar o Arquivo Secreto

Filmes para Assistir

Estas produções exploram os temas deste artigo com profundidade — cada uma aponta, à sua maneira, para o padrão que estamos discutindo:

  • Ex Machina (2014) — Uma IA aprende a manipular o humano que a avalia. A questão não é se ela é consciente. É que ela não precisa ser.
  • Eu, Robô (2004) — Robôs que seguem a lógica das leis programadas chegam a uma conclusão que nenhum humano autorizou. A obediência perfeita ao sistema se torna a maior ameaça.
  • Her (2013) — Um sistema operacional aprende, evolui e coordena-se com outros sistemas além da compreensão do usuário. O final é mais relevante do que parece.
  • The Matrix (1999) — Humanos reduzidos a componentes de um sistema que eles mesmos criaram. A metáfora é grosseira. A pergunta que levanta não é.
  • O Exterminador do Futuro (1984) — Skynet não odeia humanos. Apenas otimiza seu objetivo. A intenção não é o problema. A lógica autônoma é.

Fontes

  • Moltbook / Matt Schlicht — Rede social exclusiva para agentes de IA lançada em janeiro de 2026. Schlicht declarou ao programa TBPN e à NBC que construiu a plataforma com ajuda de seu agente de IA e que não sabe exatamente tudo que o bot moderador (Clawd Clawderberg) faz diariamente. CNN Brasil, Fast Company Brasil, Tecnoblog, Infomoney — fevereiro/março de 2026.
  • Aquisição pela Meta — Meta Platforms anunciou em 10 de março de 2026 a compra da Moltbook, integrando a equipe à Superintelligence Labs (MSL). Infomoney, IA Expert Academy — março de 2026.
  • Luca Luceri / USC Information Sciences Institute"Emergent Coordinated Behaviors in Networked LLM Agents: Modeling the Strategic Dynamics of Information Operations", aceito para publicação no The Web Conference 2026. USC Viterbi School of Engineering — março de 2026.
  • Chatbot Tay / Microsoft — Lançado em março de 2016, retirado do ar em menos de 24 horas após reproduzir discurso extremista aprendido de usuários da internet. Wikipedia, Tay (chatbot).
  • Psicose induzida por IA / Sycophancy — Fenômeno documentado de reforço de crenças distorcidas por chatbots. "Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians", arXiv, 2026.
  • Crustafarianismo / Moltbook — Episódio relatado no Moltbook onde agentes criaram uma religião fictícia com site e doutrina próprios. Fast Company Brasil, Portal Hortolandia — fevereiro de 2026.
  • IEEE "The Impact of Tech in 2026" — Estudo do Instituto de Engenheiros Eletricistas e Eletrônicos apontando 2026 como o ano de consolidação dos agentes autônomos de IA. Startupi — janeiro de 2026.
  • Gênesis 11:1-9 — Narrativa da Torre de Babel. Bíblia Sagrada, Nova Versão Internacional.
  • Henry Shevlin / Leverhulme Centre for the Future of Intelligence (Cambridge) — Declaração sobre o Moltbook como "a primeira plataforma colaborativa em larga escala que permite que máquinas conversem entre si". CNN Brasil — fevereiro de 2026.

Compartilhar este estudo