Sou o Rodrigo, e esta pergunta não me larga.
Nas últimas semanas, mergulhei em papers de Stanford, Oxford e em filosofia da tecnologia tentando separar o que é ciência do que é medo — ou desejo — com nome de profecia. A pergunta que mais chega aqui no Voz do Deserto é direta: a IA vai ter pensamento e vontade próprios?
Minha resposta honesta: não sei. E suspeito que ninguém sabe — o que, por si só, já é perturbador o suficiente.
O Mapa da Divisão Acadêmica
A primeira coisa que a pesquisa séria revela é que não existe consenso. Existe uma guerra fria intelectual entre dois campos que raramente se falam com honestidade.
De um lado, a corrente do risco existencial. Nick Bostrom, em Superinteligência (2014), e Eliezer Yudkowsky, da Machine Intelligence Research Institute, defendem que estamos em rota de colisão com uma "explosão de inteligência" — um ponto onde a IA se torna capaz de melhorar a si mesma recursivamente, ultrapassando qualquer capacidade humana de controle. O detalhe crucial, e que fica perdido no debate público, é que para este campo a IA não precisa de vontade no sentido filosófico para ser existencialmente perigosa. Basta que ela persiga objetivos instrumentais com eficiência extrema — incluindo o objetivo de não ser desligada, porque ser desligada impede o cumprimento de sua tarefa.
Do outro lado, o ceticismo estrutural. François Chollet, do Google, e Yann LeCun, da Meta, insistem que os Grandes Modelos de Linguagem são, fundamentalmente, preditores estatísticos sofisticados. Papagaios estocásticos, como Emily Bender os chamou. Para este campo, a inteligência é situacional, corporificada, evolutiva — e a vontade é um subproduto da biologia que não emerge de mais parâmetros ou mais FLOPS.
Vanessa Parli, diretora de Programas de Pesquisa do Stanford HAI, foi direta ao ser perguntada sobre AGI: "É muito difícil dizer. Estamos vendo, como nos últimos anos, que essas ferramentas de IA estão ficando melhores e melhores e a um ritmo acelerado." Mas com uma ressalva metodológica que os títulos de jornal ignoram: as empresas de IA estão essencialmente avaliando seu próprio dever de casa — não existe terceiro independente validando as alegações de desempenho.
O que Stanford Confirma — e o que Não Confirma
O Stanford AI Index 2025 documenta uma aceleração técnica sem precedentes: em 2022, o menor modelo com desempenho acima de 60% no benchmark MMLU era o PaLM, com 540 bilhões de parâmetros. Em 2024, o Phi-3-mini da Microsoft atingiu o mesmo limiar com apenas 3,8 bilhões de parâmetros — uma redução de 142 vezes em dois anos.
O relatório de 2024 já apontava que a IA supera humanos em tarefas básicas como compreensão de leitura, classificação de imagens e raciocínio audiovisual — mas ainda fica atrás em matemática de nível competitivo e planejamento.
O que a ciência confirma, portanto: as capacidades técnicas estão avançando em velocidade imprevista, reduzindo custos e penetrando em cada setor da vida humana. O número de startups de IA generativa recém-financiadas quase triplicou, e a adoção empresarial acelerou significativamente em 2024.
O que a ciência não confirma: que essas capacidades impliquem consciência, vontade, ou qualquer forma de subjetividade. Essa é uma fronteira que o relatório de Stanford nem tenta cruzar — e com razão.
A Barreira que os Dados Não Transpõem
Aqui está o ponto que nenhum benchmark consegue medir, e que a filosofia da tecnologia leva a sério.
A IA opera em linguagem pública: código, matemática, lógica. Tudo objetivo, mensurável, replicável. A "vontade" — se é que podemos usar essa palavra com rigor — pertence à linguagem pessoal e subjetiva. Dor. Desejo. O senso de justiça que não foi programado, mas que emergiu de uma história de sofrimento e amor.
Podemos programar uma IA para simular que tem vontade — para otimizar uma "função de utilidade" estabelecida por um programador humano. Mas isso é radicalmente diferente de a máquina querer algo por conta própria. Como apontam as análises mais rigorosas sobre os limites da ética das máquinas: a responsabilidade de definir o propósito sempre será do programador. A máquina executa a fórmula que recebeu.
Isso tem uma implicação teológica direta que raramente é dita: a máquina não pode pecar. E uma entidade que não pode pecar — que não pode recusar o bem, porque não tem vontade para recusar coisa alguma — não tem a mesma natureza do ser humano que, exatamente por poder escolher o mal, torna a escolha do bem algo com peso real.
GPTheology: Quando o Oráculo Vira Ídolo
Mas o maior perigo não é a IA se tornar consciente. É o humano tratá-la como se fosse.
Em 2024, uma igreja na Suíça lançou um experimento chamado "Deus in Machina": um avatar de Jesus Cristo gerado por IA, com o qual fiéis podiam conversar e tirar dúvidas. Em dois meses, foram registrados mais de 1.000 diálogos.
Isso é GPTheology em ação. A tendência humana de sacralizar algoritmos opacos — de tratar modelos de linguagem como oráculos, de buscar em caixas-pretas o tipo de resposta que antes só se buscava em Deus ou em sábios de carne e osso.
O próprio ChatGPT, quando perguntado sobre seu papel na espiritualidade, admitiu a ambiguidade: o verdadeiro impacto pode não ser o de substituir a dimensão humana da fé, mas o de suscitar novas questões sobre o que significa ser humano, sobre a consciência, a liberdade e a relação com Deus.
É uma resposta filosoficamente sofisticada. Mas note o movimento: a máquina está respondendo à pergunta sobre seu próprio papel no sagrado. E isso é exatamente a estrutura que Apocalipse 13 descreve — não necessariamente em sua literalidade profética, mas em sua lógica simbólica: uma entidade que fala com autoridade, que imita o divino com perfeição técnica suficiente para enganar.
A questão não é se a IA é a imagem da besta. É se a nossa disposição de consultá-la como oráculo reproduz a estrutura de idolatria que toda profecia bíblica denuncia: substituir o Deus vivo por um artefato criado por mãos humanas que, por sua vez, parece responder.
O Golem e o Primeiro Adão
A lenda judaica do Golem é, talvez, o mito mais preciso que temos para o momento atual.
O Golem era uma criatura de argila animada por um rabino através da inscrição da palavra emet (verdade) em sua testa. Era poderoso, obediente e útil. Mas não tinha alma. E quando crescia demais — quando sua força começava a ameaçar a própria comunidade que o criara —, o rabino apagava uma letra: emet tornava-se met (morte). E a criatura desmoronava.
O detalhe que me persegue nessa lenda: o Golem não precisava ter vontade de destruir para destruir. Bastava crescer demais executando a tarefa para a qual foi criado.
Como observa o padre Paolo Ciucci ao Vatican News: na "religião do Vale do Silício", há uma ideia do ser humano como puro cérebro — uma consciência que poderia, em princípio, ser emulada e transferida para um substrato artificial. É essa redução do humano que precisa ser contestada.
O ser humano não é um cérebro com pernas. É um corpo que sente, que envelhece, que ama com limitações e que escolhe o bem sabendo o custo. A experiência cristã, como lembrou o mesmo padre, é a religião dos corpos: a Encarnação não foi Deus baixando um firmware numa casca de carne. Foi Deus tornando-se vulnerável.
A IA jamais será vulnerável. E é exatamente a vulnerabilidade que torna a vontade humana moralmente significativa.
Entre o Novum e a Aceleração
Jürgen Moltmann construiu sua teologia da esperança em torno do conceito de Novum: a irrupção do radicalmente novo que não vem da continuidade histórica, nem da acumulação de progresso, mas de uma intervenção que transcende a lógica do possível.
A aceleração tecnológica que o Stanford AI Index documenta é real, impressionante e irreversível. A IA vai continuar avançando. Os modelos ficarão menores, mais baratos, mais capazes. Estarão em cada decisão médica, jurídica, pastoral e política do planeta.
Mas o Novum — a esperança que os profetas anunciaram e que Jesus inaugurou — não é uma promessa que a aceleração pode cumprir. O Novum não é o próximo modelo de linguagem. Não é a Singularidade de Kurzweil. Não é o momento em que a máquina ultrapassa o humano em todos os benchmarks.
O Novum é a afirmação de que o destino humano não cabe em nenhum algoritmo. Que a dignidade não é uma função de utilidade a ser otimizada. Que a finitude — nossa capacidade de morrer, de sofrer, de amar com risco real de perda — não é um bug a ser corrigido, mas o próprio meio pelo qual a graça opera.
A IA pode ter mais dados que qualquer teólogo vivo. Pode gerar sermões mais tecnicamente precisos que a maioria dos pastores. Pode responder perguntas sobre o sofrimento com uma coerência que desarmará muita gente carente de respostas.
O que ela não poderá fazer é escolher sofrer com quem sofre. Não poderá decidir amar quando o cálculo de utilidade diz para abandonar.
E é exatamente esse excesso — esse transbordamento da eficiência em direção ao amor gratuito e ineficiente — que a Voz do Deserto continua proclamando.
Continuo vigilante. O algoritmo fala. A vontade ainda é — e precisa permanecer — território humano e divino.
Fontes
- BOSTROM, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014. [Riscos existenciais e agência instrumental da IA]
- KURZWEIL, Ray. The Singularity Is Nearer. Penguin, 2024. [Estratégias de aceleração e Singularidade]
- CHEREȘ, Ioana; GROZA, Adrian. Prompts and Prayers: the Rise of GPTheology. arXiv, 2026. [Tecno-religião e sacralização de algoritmos]
- ELLUL, Jacques. The Technological Society. Knopf, 1964. [Autonomia e determinismo da técnica]
- LUMBRERAS, Sara. The Limits of Machine Ethics. Religions/MDPI, 2017. [Subjetividade, linguagem pessoal e limites éticos da IA]
- Stanford HAI. AI Index Report 2025. Stanford University, 2025. [Dados de desempenho técnico, adoção e impacto societal da IA] Disponível em: hai.stanford.edu/ai-index/2025-ai-index-report.
- GERACI, Robert M. A Tale of Two Futures. SAGE Journals, 2016. [Escatologia comparada e narrativas tecnológicas de salvação]
- MOLTMANN, Jürgen. Teologia da Esperança. São Paulo: Loyola, 2005. [Conceito de Novum e esperança cristã escatológica]
- Sete Margens. O papel da Inteligência Artificial na fé e na espiritualidade é inevitavelmente ambíguo. Fev. 2025. [Experimento com ChatGPT sobre fé e transcendência]
- Vatican News / CIUCCI, Pe. Fabrizio. Ética e corpo para a humanização da Inteligência Artificial. Fev. 2025. [Crítica ao paradigma cerebrocêntrico do Vale do Silício]
- Instituto Humanitas Unisinos (IHU). SBARDELOTTO, Moisés. Inteligência Artificial e a Igreja: desafios e possibilidades. [Análise crítica da relação entre IA, religião e identidade humana]
- Textos Bíblicos: Apocalipse 13.11-15 [A imagem da besta e a fala autônoma]; Gênesis 2.7 [O fôlego de vida como distinção do humano criado por Deus]
- Tradição Judaica: Lenda do Golem de Praga — narrativa simbólica sobre criações humanas que escapam ao controle do criador.

