Voz do Deserto

O Nomos Digital: Quando o Algoritmo Governa Antes que Você Pense

25 de março de 2026·11 min de leitura
O Nomos Digital: Quando o Algoritmo Governa Antes que Você Pense

Em pesquisas recentes sobre os cruzamentos entre filosofia da tecnologia e teologia, me deparei repetidamente com o mesmo incômodo: as categorias que usamos para descrever o que a IA está fazendo com a experiência humana são insuficientes.

Não estamos diante de uma ferramenta que ficou muito poderosa. Estamos diante de um sistema que reorganizou a relação entre desejo, decisão e controle de uma forma que filósofos do século XX previram com precisão perturbadora — e que a maioria das análises contemporâneas ainda subestima.

Este artigo não é sobre robôs tomando empregos. É sobre algo mais fundamental: o sistema que governa antes que você pense.


O Diagnóstico de Ellul — Escrito em 1954 para 2026

Jacques Ellul era um teólogo e sociólogo francês que em 1954 publicou La Technique ou l'Enjeu du Siècle — traduzido para o inglês como The Technological Society em 1964. Era um mundo sem internet, sem computadores pessoais, sem smartphones. Ellul nunca usou um algoritmo de recomendação.

E ainda assim, o que ele descreveu é o sistema exato que vivemos hoje.

Ellul definiu técnica não como máquinas ou ferramentas, mas como o conjunto de métodos racionalmente organizados para alcançar eficiência máxima em todos os campos humanos. Técnica no sentido de Ellul é um sistema — um modo de organizar a realidade segundo o critério supremo da eficiência.

Sua tese central, que soou radical em 1954 e soa profética em 2026: a técnica é autônoma. Quando técnicas competem, a mais eficiente vence automaticamente — independentemente de ser a mais justa, a mais humana ou a mais bela. O sistema técnico opera como uma lógica fechada que não aceita julgamentos morais externos. Você não pode pedir ao algoritmo de recomendação do YouTube que pare de maximizar o engajamento em nome da saúde mental dos usuários. Você pode protestar. Pode publicar pesquisas. Pode chamar audiências no Congresso. O algoritmo continua maximizando o engajamento — porque é para isso que foi otimizado.

Sete características da técnica autônoma — todas verificáveis em 2026

Ellul identificou sete características da técnica que o pesquisador honesto reconhece imediatamente na IA contemporânea:

Automatismo da escolha: Quando sistemas de IA competem, o mais eficiente captura mercado — independente de implicações éticas. O TikTok dominou o mercado de atenção não por ser o mais saudável, mas por ter o algoritmo de recomendação mais eficiente.

Autonomia: O sistema técnico opera segundo sua própria lógica interna. Modificações éticas são acréscimos externos que o sistema incorpora apenas na medida em que não reduzem eficiência.

Auto-augmentação: A técnica se constrói sobre si mesma exponencialmente. GPT-2 levou décadas de pesquisa. GPT-3 levou meses adicionais. GPT-4 levou semanas adicionais. O ritmo de auto-augmentação é ele mesmo acelerante.

Monismo: A técnica tende a absorver todos os campos humanos — incluindo os que historicamente resistiram à mensuração, como arte, amor, espiritualidade e criatividade. Em 2026, todos esses campos têm métricas, algoritmos e sistemas de otimização.

Universalismo: Não há espaço cultural que a técnica não penetre. As últimas comunidades indígenas isoladas do planeta são agora objeto de debate sobre quando e como serão integradas à infraestrutura digital.

Totalitarismo: Não no sentido político, mas no sentido de que a lógica técnica não tolera exceções. Um sistema de saúde algorítmico que otimiza para eficiência não tem categoria para "compaixão ineficiente".

Autonomia moral: A técnica não tem consciência. Não sente remorso. Não tem noites em claro. O algoritmo que maximize engajamento através de conteúdo que deteriora a saúde mental de adolescentes não perde o sono — porque não tem sono.


O Gestell de Heidegger — O Modo de Ver que a Técnica Impõe

Ellul descreveu o sistema. Martin Heidegger, em A Questão da Técnica (1954 — mesma data, coincidência notável), descreveu o modo de ver que o sistema impõe.

O conceito central é Gestell — traduzível como "armação" ou "enquadramento". Heidegger argumentou que o perigo da tecnologia moderna não está nos dispositivos, mas no modo como ela nos obriga a revelar o mundo: exclusivamente como Bestand — estoque disponível para uso, otimização e extração.

Sob o Gestell, nada tem valor intrínseco. Tudo tem valor de uso. Uma floresta não é um ecossistema com dignidade própria — é madeira, carbono sequestrado, área de reflorestamento ou recurso hídrico. Um ser humano não é uma pessoa com mistério irredutível — é capital humano, dado demográfico, perfil de usuário, score de crédito.

A catedral de algoritmos

A expressão "catedral de algoritmos" aparece na literatura de teologia algorítmica para descrever a estrutura invisível de sistemas que governam o espaço do possível antes da decisão humana. Como uma catedral gótica organizava a experiência sensorial e espiritual do fiel medieval — guiando o olhar, determinando onde sentar, quando levantar, como se mover — a infraestrutura algorítmica organiza a experiência informacional do usuário contemporâneo.

Você não percebe o teto da catedral enquanto caminha por ela. Da mesma forma, você não percebe o algoritmo enquanto navega pelo feed. Mas ambos determinam o que você vê, o que você não vê, e — progressivamente — o que você considera possível de ver.

Quando Yuval Noah Harari escreve em Homo Deus que uma vez que confiamos nas decisões dos algoritmos, a autoridade se desloca do humano para o sistema de Big Data, ele está descrevendo a realização do Gestell: o momento em que o Bestand passa a incluir o próprio tomador de decisões.


Liturgias Digitais — O Sistema que Forma o Coração

O filósofo cristão James K.A. Smith desenvolveu o conceito de que os seres humanos são fundamentalmente criaturas de hábito e desejo — não primariamente de razão. O que nos forma não é principalmente o que pensamos, mas o que praticamos repetidamente. As liturgias — rituais repetidos com intenção — formam o coração.

A teologia algorítmica aplica esse insight de forma perturbadora: os algoritmos são liturgias. Não rituais com intenção formativa explícita, mas práticas repetidas que moldam hábitos, respostas emocionais e desejos de forma tão eficaz quanto qualquer ritual religioso — e com muito mais dados sobre quais estímulos produzem quais respostas em qual usuário específico.

O ritmo de notificações não é aleatório. Foi otimizado para maximizar a resposta de dopamina que garante o retorno ao aplicativo. O scroll infinito não é design neutro. Foi desenvolvido especificamente para eliminar o ponto de parada natural que permitiria ao usuário decidir conscientemente se continua ou para.

A diferença entre a liturgia cristã e a liturgia digital é o objetivo da formação. A liturgia cristã forma explicitamente para um telos — a vida plena em Deus. A liturgia digital forma para um telos que raramente é declarado: a maximização do tempo de tela e do engajamento comercializável.


Ressonância Profética — O que Pode e o que Não Pode Ser Dito

Este é o ponto onde o Voz do Deserto precisa ser preciso — porque a conexão entre governamentalidade algorítmica e escatologia bíblica é tentadora, legítima em partes, e potencialmente irresponsável se não for delimitada com cuidado.

O que pode ser dito com responsabilidade: há paralelo estrutural legítimo entre o sistema descrito em Apocalipse 13 — controle econômico vinculado à conformidade, exclusão de quem não se conforma, concentração de poder num sistema que reivindicaria autoridade absoluta — e a arquitetura de poder que os sistemas algorítmicos contemporâneos estão construindo.

Esse paralelo não é evidência empírica de cumprimento literal de profecia. É o que estudiosos chamam de reconhecimento de padrão — a observação de que a estrutura funcional do que está sendo construído ressoa com o que foi descrito. Isso tem valor teológico e hermenêutico real. Não é prova de que estamos nos "últimos dias" no sentido cronológico.

O que não pode ser dito responsavelmente: que o sistema de CBDCs é a marca da besta, que determinado CEO de tecnologia é o anticristo, que a IA é a imagem da besta de Apocalipse 13. Essas afirmações confundem padrão estrutural com identidade específica — o mesmo erro que transformou "Hister" de Nostradamus em Hitler.

O discernimento responsável nomearia assim: estamos vendo, pela primeira vez na história humana, a infraestrutura técnica que tornaria possível o sistema descrito em Apocalipse 13. Isso merece atenção. Não pânico — atenção.


O Debate Interno — Onde os Especialistas Divergem

O campo da IA não é monolítico em sua avaliação dos riscos. Essa divergência interna é relevante para qualquer análise honesta.

Yann LeCun, diretor de pesquisa de IA do Meta e um dos pioneiros do aprendizado profundo, consistentemente minimiza os riscos existenciais — argumentando que os sistemas de IA atuais são fundamentalmente limitados e que a narrativa de risco catastrófico é exagerada e desvia atenção de riscos reais e imediatos como vieses algorítmicos e concentração de poder.

Roman Yampolskiy, pesquisador de segurança de IA da Universidade de Louisville, sustenta a posição oposta — que a criação de IA superinteligente é existencialmente perigosa com alto grau de certeza, e que a humanidade está num caminho de extinção se não houver solução para o problema do alinhamento.

Entre esses dois polos estão dezenas de posições intermediárias, representadas por pesquisadores de Oxford, Cambridge, Stanford e MIT, que divergem sobre probabilidades, prazos e natureza dos riscos — mas convergem na avaliação de que o problema do alinhamento de valores entre sistemas de IA e humanos é real e não resolvido.

Para o cristão que leva a Escritura a sério: a incerteza dos especialistas sobre o futuro da IA é dado relevante, não descartável. A prudência diante do desconhecido tem base bíblica sólida — e o campo que mais profundamente entende o que está sendo construído não tem certeza sobre onde isso leva.


A Resposta no Deserto Digital

Ellul não era apenas sociólogo. Era teólogo. E sua conclusão, depois de 500 páginas descrevendo a técnica autônoma, não era desespero. Era que o único espaço de resistência genuína é o que não pode ser tecnificado: a relação pessoal com o Deus que criou o humano antes de qualquer máquina.

A resposta que o Voz do Deserto propõe não é ludismo — a destruição das máquinas. É o que os Padres do Deserto praticaram quando o sistema imperial tornou-se suficientemente totalitário para ameaçar a identidade cristã: saída deliberada da lógica do sistema, sem saída física necessária do mundo.

Você pode usar algoritmos sem ser governado por eles. A diferença está na consciência de que o sistema quer governar — e na decisão deliberada de que não vai.

A liberdade que Apocalipse promete ao sofredor não é a liberdade de quem nunca foi ameaçado. É a liberdade de quem foi ameaçado, reconheceu a ameaça pelo nome, e escolheu — mesmo assim, mesmo no meio disso — a lealdade que o sistema não pode comprar.


Perguntas Frequentes

O que é governamentalidade algorítmica?

É o sistema pelo qual algoritmos de IA regulam comportamentos, escolhas e até desejos humanos de forma invisível e preventiva — antes mesmo que o indivíduo formule conscientemente o que quer. O conceito une a noção de governamentalidade de Foucault com a análise da técnica autônoma de Jacques Ellul: não é mais o Estado que disciplina diretamente os corpos, mas o sistema técnico que molda o campo do possível antes da decisão.

O que Ellul quis dizer com técnica autônoma?

Em A Sociedade Tecnológica (1954), Ellul definiu técnica não como máquinas, mas como o conjunto de métodos racionalmente organizados para alcançar eficiência máxima em todos os campos humanos. Sua tese central: quando técnicas competem, a mais eficiente vence automaticamente — independentemente de ser a mais justa ou humana. A técnica opera como sistema fechado que não aceita julgamentos morais externos.

O que Heidegger quis dizer com Gestell?

Gestell — armação ou enquadramento — é o modo como a tecnologia moderna obriga a revelar o mundo exclusivamente como estoque disponível para uso e otimização. Sob esse enquadramento, pessoas tornam-se capital humano, emoções tornam-se dados treináveis e criatividade torna-se variável a ser maximizada. O perigo não está no hardware, mas no modo de ver que a tecnologia impõe.

O que são liturgias digitais?

O conceito descreve como o ritmo de notificações, feeds e recomendações algorítmicas molda hábitos e desejos de forma análoga aos rituais religiosos. Assim como a liturgia cristã forma o coração através da repetição intencional, as liturgias digitais formam desejos através da repetição algoritmicamente otimizada — com o objetivo não de formação humana, mas de maximização do engajamento.

A governamentalidade algorítmica é a "marca da besta"?

Há paralelo estrutural legítimo entre a arquitetura de controle econômico vinculada à conformidade descrita em Apocalipse 13 e o que os sistemas algorítmicos contemporâneos estão construindo. Mas reconhecer paralelo estrutural não é o mesmo que identificar cumprimento específico. O discernimento responsável observa que temos, pela primeira vez na história, a infraestrutura técnica que tornaria possível o sistema descrito — o que merece atenção, não pânico.


O que Vem a Seguir

A análise completa de como o Gestell de Heidegger, o capitalismo de vigilância de Shoshana Zuboff e a arquitetura de CBDCs se encaixam no quadro profético de Apocalipse 13 — com dados primários e distinção rigorosa entre paralelo estrutural e cumprimento declarado — está no Arquivo Secreto. Se este artigo levantou mais perguntas do que respondeu, é lá que a conversa continua.


Fontes

  • ELLUL, Jacques. The Technological Society. Knopf, 1964. [Original: La Technique ou l'Enjeu du Siècle, 1954]
  • HEIDEGGER, Martin. The Question Concerning Technology. Harper, 1977. [Original: Die Frage nach der Technik, 1954]
  • HARARI, Yuval Noah. Homo Deus: A Brief History of Tomorrow. Harper, 2015.
  • LEKSANA, Dharma. Algorithmic Theology. 2025.
  • LI, Zhanyi. AI and the Religious Imagination of the Future. Religions, 2025.
  • TORRES-CHAVARRÍA, Luis. La inteligencia artificial en la teología y espiritualidad. Cuestiones Teológicas, 2026.
  • LAGERKVIST, Amanda et al. Prophetic Memory: AI Intermediaries and the End of the World. Cambridge University Press, 2026.
  • ZUBOFF, Shoshana. The Age of Surveillance Capitalism. PublicAffairs, 2019.
  • SMITH, James K.A. You Are What You Love. Brazos Press, 2016.
  • Stanford HAI. AI Index Report 2025.
  • Apocalipse 13:16-17 | Provérbios 3:5-7

Não perca nenhum artigo

Receba os próximos estudos no seu e-mail

Estamos mapeando como sobreviver ao futuro que está sendo construído agora. Esse tipo de conteúdo não dura para sempre na internet — algoritmos censuram, plataformas derrubam, sistemas ignoram. Cadastre seu e-mail e garanta acesso direto antes que alguém decida que você não deveria estar lendo isso.

Compartilhar este estudo

Rodrigo Ramos — Voz do Deserto

Escrito por

Rodrigo Ramos

Evangelista · Pesquisador · Voz do Deserto

Rodrigo Ramos estuda o que ninguém ensina na faculdade de teologia e o que ninguém quer ouvir na faculdade de tecnologia: que os dois estão descrevendo a mesma coisa. Origens cristãs. Manuscritos esquecidos. Escatologia tecnológica. O sistema que está sendo construído — e o chamado para sair dele antes que as portas fechem. Voz do Deserto — para quem ainda está acordado.