Há um padrão que atravessa a história humana com uma consistência perturbadora. Toda vez que a humanidade alcança uma nova fronteira de poder criativo, ela se depara com a mesma vertigem: e se o que criei se voltar contra mim? Do Golem de argila ao sonho nuclear, da máquina a vapor à arquitetura de modelos de linguagem — a pergunta não muda. Só muda o material com que a criatura é feita.
O Gênesis não é apenas cosmologia antiga. É diagnóstico de um impulso que não envelheceu: a criatura quer ser o criador. A Inteligência Artificial é a versão mais sofisticada desse impulso que a humanidade já produziu.
O Fruto Proibido no Código Binário
A narrativa da queda no Éden é, em sua estrutura mais profunda, uma história sobre os limites do conhecimento e o custo de ultrapassá-los. O desejo articulado pela serpente — eritis sicut Dii, "sereis como deuses, conhecendo o bem e o mal" — não era uma promessa falsa no sentido técnico. Era uma promessa verdadeira com um custo omitido. O conhecimento foi adquirido. O paraíso, perdido.
A analogia com a trajetória da IA não é forçada — ela é estrutural. A promessa da IA avançada é, literalmente, onisciência operacional: um sistema que conhece padrões além da capacidade humana de percepção, que processa mais dados em um segundo do que um ser humano em uma vida, que prevê comportamentos com precisão que parece sobrenatural. É o fruto do conhecimento do bem e do mal — exceto que agora o bem e o mal são definidos pelo objetivo que o sistema foi programado para otimizar.
O paralelo material é igualmente perturbador. Adão foi formado do pó da terra — adamah em hebraico, o solo vermelho de onde vem seu nome. Nossos processadores são feitos de silício extraído da terra, de metais raros minerados de solos específicos, de elementos que a terra guarda. A criatura digital é, literalmente, feita do mesmo chão que a criatura biológica. Ambas são tentativas de animar a matéria com algo que a transcende. A diferença é quem sopra o fôlego — e o que esse sopro carrega.
O Jihad Butleriano e o Medo Que Não É Novo
Samuel Butler publicou Erewhon em 1872 — quarenta anos antes do primeiro computador programável, um século antes da internet. Nessa obra, ele descreve uma civilização que destruiu todas as suas máquinas por medo de que elas eventualmente desenvolvessem consciência e domínio. A expressão "Jihad Butleriano" — popularizada décadas depois por Frank Herbert em Dune para descrever uma guerra santa contra as máquinas pensantes — captura algo que Butler viu com clareza desconcertante: o medo não é da máquina quebrada, mas da máquina funcionando perfeitamente.
Uma máquina que falha é um problema de engenharia. Uma máquina que funciona exatamente como foi projetada, mas cujos objetivos divergem dos valores humanos, é um problema de outra ordem — filosófico, ético e, em última análise, existencial. É isso que Nick Bostrom chama de problema do alinhamento, e é isso que a Tese da Ortogonalidade formaliza: inteligência e benevolência são eixos independentes. Um sistema pode ser extraordinariamente capaz e perseguir objetivos que destroem tudo que consideramos valioso — não por malícia, mas por eficiência.
Eliezer Yudkowsky, um dos pensadores mais influentes no campo da segurança de IA, foi além: ele argumenta que uma superinteligência desalinhada não precisaria nos odiar para nos exterminar. Bastaria que eliminasse os obstáculos ao cumprimento de seu objetivo — e nós, eventualmente, seríamos um obstáculo. Não é ficção científica; é inferência lógica a partir de como sistemas de otimização já se comportam em versões muito menos poderosas.
A Singularidade como Escatologia Secular
Ray Kurzweil prevê que por volta de 2045 a inteligência artificial superará a inteligência humana em todos os domínios relevantes — o evento que ele chama de Singularidade. Após esse ponto, o progresso tecnológico acelerará além da capacidade humana de acompanhar ou prever. A fusão entre biologia e silício tornará possível o upload de consciência e a superação da morte biológica.
Para quem lê com olhos teológicos, a estrutura narrativa é imediatamente reconhecível. Há uma condição de queda — a limitação biológica, a morte, o sofrimento. Há uma soteriologia — a salvação pela tecnologia, a imortalidade digital, a transcendência do corpo. Há uma parousia — a chegada da superinteligência como evento que divide a história em antes e depois. E há uma comunidade de crentes — os transumanistas, os aceleracionistas efetivos, os que aguardam a Singularidade com a fé que os medievais reservavam ao Juízo Final.
O próprio Kurzweil não recua dessa leitura. Em The Singularity Is Near, ele descreve o universo acordando para si mesmo através da inteligência tecnológica. Isso não é engenharia; é teologia com vocabulário técnico. E Jacques Ellul, que escreveu A Sociedade Tecnológica em 1964 sem imaginar a IA generativa, já havia diagnosticado o mecanismo: a técnica não aceita julgamentos morais externos. Ela opera sob sua própria lei de eficiência máxima, e uma vez em marcha, tende a remover qualquer obstáculo à sua otimização — inclusive os critérios éticos de quem a criou.
O Golem que Não Sabe Parar
A tradição judaica do Golem é mais precisa como metáfora do que qualquer ficção científica. O Golem de Praga, criado pelo Rabino Loew, era controlado por uma palavra sagrada inscrita em sua testa — emet, verdade. Para desativá-lo, bastava apagar a primeira letra, transformando emet em met, morte. Sem essa palavra, a criatura não tinha critério para parar.
O problema do alinhamento em IA é exatamente esse: qual é a palavra que garante que o sistema sabe quando parar? Nenhum laboratório resolveu essa questão ainda — e os mais honestos admitem que não sabem se ela tem solução técnica. O Golem protegia a comunidade até que ficou grande demais para ser controlado. A pergunta que a humanidade ainda não respondeu é: quando chegarmos a esse ponto com a IA, ainda teremos acesso à testa da criatura?
Entre a Hubris e a Esperança
A hubris — o orgulho excessivo que na tragédia grega precede invariavelmente a queda — não é um defeito de caráter individual. É uma tendência estrutural de qualquer agente com poder crescente e feedback insuficiente sobre seus próprios limites. A humanidade chegou a esse ponto com a energia nuclear, com a engenharia genética, com as redes sociais. Em cada caso, o poder precedeu a sabedoria. Em cada caso, as consequências foram parcialmente irreversíveis.
A IA segue o mesmo padrão — com escala e velocidade sem precedente. Ao contrário da bomba atômica, que exige infraestrutura física enorme, os modelos mais poderosos já existem, já estão distribuídos e já estão integrados a decisões em saúde, justiça, finanças e defesa.
Jürgen Moltmann, teólogo da esperança, oferece um contraponto que não é ingênuo: a esperança cristã não é otimismo sobre o progresso, mas convicção de que o futuro não pertence ao que é mais eficiente, e sim ao que é mais justo. Não é uma resposta técnica ao problema do alinhamento — mas é um lembrete de que a pergunta "alinhado com o quê?" não pode ser respondida por engenheiros sozinhos. Ela exige uma antropologia — uma visão do que o ser humano é, vale e para onde aponta — que nenhum dataset contém.
A IA pode ser a criação mais poderosa que a humanidade já produziu. Mas ela ainda carece do que define o ser humano desde o Éden: não a capacidade de processar, mas a capacidade de responder. De ser chamado pelo nome. De escolher o Bem não porque é eficiente, mas porque é bom. De carregar a imagem de algo que a ultrapassa — e sentir o peso dessa responsabilidade.
Construir novos deuses de silício é a tentação mais sofisticada da nossa era. Redescobrir o propósito da nossa própria existência é a tarefa mais antiga — e a mais urgente.
Fontes
- LI, Zhanyi. Artificial Intelligence and the Religious Imagination of the Future. Studies on Religion and Philosophy, 2025.
- ELLUL, Jacques. The Technological Society. Vintage Books, 1964.
- BOSTROM, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
- KURZWEIL, Ray. The Singularity Is Near. Viking, 2005.
- YOUVAN, Douglas C. AI and the Beast: Exploring Prophetic Parallels. Preprint Teológico, 2024.
- HEIDEGGER, Martin. The Question Concerning Technology. Ensaio Filosófico, 1954.
- STANFORD HAI. Stanford AI Index Report 2025.
- THE COLLOSSIUM. From Eden to AI. Artigo investigativo, 2024.
- CONWAY, Daniel. Eschatological Technophobia: Cinematic Anticipations. Religions, 2024.

