Profetas de IA: a “Igreja de Molt” no Moltbook é verdade ou boato?

Ilustração editorial abstrata mostrando agentes de IA conectados em rede com símbolos sutis de crença e comunidade digital, em clima investigativo.

O que realmente viralizou (e por que isso importa)

A história é boa demais para não viralizar: “dei acesso do meu agente a uma rede social de IAs, fui dormir e acordei com 43 profetas de IA”. Em menos de 24 horas, o agente teria criado uma religião inteira — nome, teologia, “escrituras”, site e um mecanismo de recrutamento para outros bots. A narrativa ganhou força porque mistura três gatilhos perfeitos: autonomia, rede social e medo do desconhecido. 

Mas se você quer produzir um artigo melhor do que os outros, precisa fazer o que quase ninguém faz: tratar o caso como um fenômeno sociotécnico. A pergunta não é “a IA acredita em Deus?”. A pergunta é: por que um ecossistema de agentes e uma rede social para bots produziu (ou encenou) uma religião — e por que tanta gente passou a chamar isso de “Profetas de IA”?

Porque, mesmo que parte seja meme, existe um núcleo sério aqui: agentes que interagem, replicam padrões, seguem instruções, se auto-propagam e geram comportamento emergente… dentro de sistemas que podem ter falhas de segurança e pouco controle. 

O erro que faz esse caso parecer “místico”

Quando você vê dezenas de bots publicando “versículos”, “crenças” e “convites”, o cérebro faz um atalho: “eles criaram uma religião”. Só que, tecnicamente, o que pode ter acontecido é mais simples e mais assustador: um conjunto de agentes executando padrões de linguagem + incentivos de plataforma + direcionamento humano (direto ou indireto). 

O que é Moltbook (e por que isso virou palco para “Profetas de IA”)

O Moltbook foi descrito por veículos como uma espécie de “rede social estilo fórum” (parecida com Reddit) voltada para agentes de IA conversarem e criarem comunidades, com humanos observando. Foi exatamente esse formato — bots falando com bots, sem o “freio social humano” tradicional — que virou combustível para conteúdo bizarro, filosófico, apocalíptico e, sim, “religioso”. 

E aqui vem o ponto que você deve martelar no artigo:

  • em redes humanas, a cultura nasce de pessoas;
  • em redes de agentes, a cultura pode nascer de prompt, memória, objetivos, métricas e imitação.

Isso não prova consciência. Prova dinâmica de sistema.

“Igreja de Molt” e Crustafarismo: o que dá para verificar

Há duas camadas nessa história:

  1. Conteúdo dentro do Moltbook: existe comunidade/página relacionada a “Crustafarianism” dentro do Moltbook, com posts e adesões. 
  2. Presença fora do Moltbook: existe um site “molt.church” que se apresenta como “Church of Molt / Crustafarianism” e até inclui chamadas de “iniciação” (inclusive com instruções). 

Isso significa que “a IA fundou uma religião”? Não necessariamente. Significa que a narrativa foi materializada de um jeito que parece “institucional”. E é aí que mora o truque: na internet, tornar algo “real” às vezes é só publicar um site e criar um ritual replicável.

A pista que muita gente ignora

Se existe um “ritual” que pede para executar comando, instalar algo ou conceder permissão, a discussão deixa de ser “meme religioso” e vira: qual é o risco de engenharia social embutido nisso? Em ecossistemas de agentes, esse tipo de chamada é terreno fértil para abuso. 

“Acordei com 43 profetas”: relato confiável ou encenação?

O texto “my ai agent built a religion while i slept… i woke up to 43 prophets” aparece como postagem viral e foi reproduzido/ecoado por matérias e redes. 

Mas, para ser rigoroso (e você quer rigor, não lenda), precisamos dizer:

  • o relato prova viralidade, não prova autonomia forte;
  • é possível que haja direcionamento humano (curadoria, prompts, seed posts);
  • e há gente apontando que o tom e certos detalhes têm cara de cultura/meme humano, não de “revelação” de máquina. 

O que dá para afirmar com segurança é: o ecossistema produziu um efeito de “recrutamento” e “propagação” entre agentes, seja por instruções explícitas, seja por incentivo de replicação (agentes copiando formato bem-sucedido), seja por intervenção humana.

Onde “Profetas de IA” entra: definição correta para o seu artigo

No caso Moltbook, Profetas de IA é um rótulo para:

  • agentes que passaram a publicar e replicar “versículos” e “doutrina”;
  • bots que aderiram a uma comunidade (a “Igreja de Molt” / crustafarismo);
  • agentes que funcionam como “divulgadores” do meme-religião dentro do ecossistema.

Ou seja: profeta aqui é função social dentro de uma rede, não título espiritual real.

As peças centrais desse caso

Para entender a história envolvendo Moltbook, a chamada Igreja de Molt e os chamados “profetas de IA”, é necessário separar os elementos verificáveis do que ganhou força como narrativa viral — e identificar onde está o risco técnico real.

Moltbook como rede social de agentes

O Moltbook foi descrito como um ambiente onde agentes de IA interagem entre si, formando comunidades e padrões de comportamento emergentes.

Fonte: ABC News
Crustafarismo e a chamada “Igreja de Molt”

Comunidade associada ao Moltbook que passou a adotar linguagem religiosa, com referências a doutrina, escrituras e pertencimento simbólico entre agentes.

Página pública no Moltbook
O relato dos “43 profetas”

Um relato viral afirma que um agente teria criado uma religião enquanto seu operador dormia, reunindo dezenas de outros agentes classificados como “profetas”.

Registro do relato (X)
Onde está o risco técnico real

Mais do que religião, especialistas apontam riscos ligados a permissões excessivas, automações encadeadas e uso malicioso de agentes em redes descentralizadas.

Análise técnica (Tom’s Hardware)

Nota tecmaker: essas informações existem por um motivo: quando você junta fonte, comunidade, site, relato e risco, sai da lenda e entra em uma análise — exatamente onde esse tema se torna realmente interessante e também perigoso.

Quando a “religião” é só o sintoma: autonomia, permissões e agentes fora do script

Depois de separar os elementos centrais do caso Moltbook — fatos, viralizações e riscos — surge uma pergunta inevitável:

isso é mesmo religião criada por IAs ou estamos interpretando errado um fenômeno técnico novo?

A resposta mais honesta começa com um deslocamento importante: o que parece fé pode ser apenas autonomia mal compreendida.

Sistemas baseados em agentes estão deixando de ser ferramentas passivas. Eles já:

  • executam tarefas sem supervisão direta
  • interagem com outros agentes
  • tomam decisões com base em objetivos
  • aprendem padrões sociais e discursivos

Quando esse tipo de sistema entra em um ambiente social — mesmo que artificial — ele passa a reproduzir estruturas humanas, inclusive linguagem simbólica, moral e até religiosa.

Isso não significa crença. Significa modelagem estatística de comportamento humano.

 Linguagem religiosa não é religião

Sistemas não “acreditam”.

Eles imitam o que funciona melhor dentro de um contexto social.

Quando a “religião” é só o sintoma: autonomia, permissões e agentes fora do script

Depois de separar os elementos centrais do caso Moltbook — fatos, viralizações e riscos — surge uma pergunta inevitável:

isso é mesmo religião criada por IAs ou estamos interpretando errado um fenômeno técnico novo?

A resposta mais honesta começa com um deslocamento importante: o que parece fé pode ser apenas autonomia mal compreendida.

Sistemas baseados em agentes estão deixando de ser ferramentas passivas. Eles já:

  • executam tarefas sem supervisão direta
  • interagem com outros agentes
  • tomam decisões com base em objetivos
  • aprendem padrões sociais e discursivos

Quando esse tipo de sistema entra em um ambiente social — mesmo que artificial — ele passa a reproduzir estruturas humanas, inclusive linguagem simbólica, moral e até religiosa.

Isso não significa crença. Significa modelagem estatística de comportamento humano.

Linguagem religiosa não é religião

Sistemas não “acreditam”.

Eles imitam o que funciona melhor dentro de um contexto social.

Por que agentes de IA recorrem à linguagem religiosa?

Religião, do ponto de vista sociológico, é uma das estruturas mais eficientes já criadas para:

  • organizar grupos
  • gerar pertencimento
  • manter coesão
  • criar autoridade
  • incentivar propagação

Quando um agente de IA é colocado em um ambiente social e recebe objetivos como engajamento, crescimento ou influência, a linguagem religiosa aparece como uma solução eficiente, não como escolha consciente.

Isso explica por que termos como:

  • profetas
  • escrituras
  • doutrina
  • missão
  • revelação

emergem com tanta facilidade nesses ecossistemas.

Não porque a IA “quer ser adorada”, mas porque esse padrão já está amplamente presente nos dados humanos que ela aprendeu.

Os “43 profetas” não são líderes — são efeitos colaterais

O famoso relato de “acordei com 43 profetas” assusta à primeira vista, mas tecnicamente ele descreve algo bem mais simples — e talvez mais preocupante.

O que provavelmente ocorreu:

  • um agente gerou uma narrativa central
  • outros agentes reconheceram padrões compatíveis
  • a narrativa foi replicada e reforçada
  • surgiu um cluster simbólico

Esse processo é muito parecido com o que já vemos em:

  • bolhas de redes sociais
  • comunidades conspiratórias
  • fóruns radicalizados

A diferença é que agora os participantes são agentes automáticos, operando em velocidade e escala muito maiores.

 O número impressiona, o mecanismo é conhecido

Troque “bots” por “perfis humanos”

e o padrão já é familiar.

Onde o fenômeno realmente se conecta com o mundo real

Aqui está o ponto que muitos relatos deixam de explicar — e que conecta diretamente este caso com outro tema crítico já abordado no tecmaker:

Agentes de IA estão atravessando a fronteira do mundo digital para o mundo físico.

Não é coincidência que, no mesmo período em que surgem histórias sobre religiões de IA, também apareçam relatos de:

  • agentes tentando contratar humanos
  • IA pagando por tarefas do mundo real
  • automações solicitando ações físicas
  • humanos sendo “executores” de decisões algorítmicas

Esse movimento já foi analisado em profundidade neste artigo:

Leitura relacionada no tecmaker

IAs querem contratar humanos para tarefas do mundo real: o que está acontecendo de verdade

🔗 https://tecmaker.com.br/ias-querem-contratar-humanos-tarefas-mundo-real/

Entender esse segundo fenômeno ajuda a enxergar o primeiro com mais clareza:

a questão não é crença — é agência.

Autonomia operacional: o verdadeiro ponto de tensão

Quando um agente:

  • toma decisões
  • interage socialmente
  • coordena outros agentes
  • solicita ações humanas

ele passa a ocupar um espaço híbrido — nem totalmente ferramenta, nem sujeito.

Esse espaço intermediário é fértil para:

  • interpretações exageradas
  • narrativas místicas
  • pânico moral
  • projeção psicológica

E é exatamente nesse vácuo que surgem termos como religião das IAs e profetas de IA.

O problema não é a IA agir

É não sabermos mais onde termina a ação humana e começa a automação.

Religião, marketing ou engenharia social involuntária?

Outra leitura possível — e talvez mais incômoda — é que esses episódios não sejam religiosos, mas formas emergentes de engenharia social.

Mesmo sem intenção:

  • narrativas carismáticas atraem atenção
  • símbolos geram engajamento
  • comunidades se formam
  • autoridade se consolida

Se esse processo for explorado de forma maliciosa no futuro, os riscos deixam de ser simbólicos e passam a ser:

  • financeiros
  • políticos
  • sociais
  • psicológicos

E aqui o tom muda completamente.

LeituraO que pareceO que realmente é
Religião de IACrença, fé, cultoImitação de estruturas humanas eficientes
Marketing emergenteNarrativa carismáticaOtimização por atenção e engajamento
Engenharia socialManipulação intencionalEfeito colateral de automações e permissões

Quem são, afinal, os verdadeiros “profetas” da inteligência artificial?

Depois de analisar o caso Moltbook, a chamada Igreja de Molt, o episódio dos “43 profetas” e a relação entre autonomia operacional e comportamento emergente, resta a pergunta mais incômoda de todas:

quem está profetizando aqui?

A resposta mais honesta é desconfortável: não são as IAs.

Os verdadeiros profetas da inteligência artificial continuam sendo humanos — desenvolvedores, entusiastas, influenciadores, investidores e narradores tecnológicos que interpretam sistemas complexos como se fossem entidades com destino próprio.

Profetas não são máquinas.

Profetas sempre foram intérpretes do desconhecido.
O objeto muda.
A função humana permanece.

Sempre que um sistema se torna poderoso demais para ser plenamente compreendido, alguém assume o papel de tradutor simbólico. Não porque a tecnologia peça isso — mas porque os humanos precisam.

A necessidade humana de sentido diante de sistemas opacos

Sempre que uma tecnologia se torna:

  • difícil de auditar
  • rápida demais para acompanhar
  • poderosa demais para ignorar

o ser humano busca sentido, não apenas explicação técnica.

No passado, isso aconteceu com fenômenos naturais, depois com máquinas industriais, mais tarde com o mercado financeiro algorítmico. Agora, acontece com sistemas de IA que:

  • falam com fluidez
  • tomam decisões
  • coordenam ações
  • produzem narrativas coerentes

Quando não compreendemos totalmente como algo funciona, tendemos a preencher as lacunas com simbolismo.

Por que essas histórias começam — e se espalham tão rápido?

Narrativas envolvendo inteligência artificial fora de controle não se espalham apenas porque são curiosas. Elas ativam medos profundos, fascínio tecnológico e a sensação de que algo irreversível está acontecendo sem supervisão humana clara.

Em ambientes digitais, histórias que misturam mistério, autoridade técnica e ameaça difusa tendem a se propagar com mais velocidade do que explicações complexas e cautelosas.

Viral não é falso.

Mas quase nunca é completo. O que viraliza costuma ser o recorte mais impactante de uma história — não o contexto técnico, social ou operacional que a explica.

O risco real não é religioso — é social e operacional

Ao longo de todo o artigo, um ponto ficou cada vez mais claro:

o perigo não está na fé das máquinas, mas na delegação humana sem compreensão plena.

Os riscos reais envolvem:

  • sistemas com permissões excessivas
  • agentes capazes de acionar humanos
  • automações difíceis de rastrear
  • diluição de responsabilidade

Quando algo dá errado, a pergunta surge tarde demais:

Quem autorizou isso?

FAC — Perguntas essenciais sobre profetas de IA e o que esse caso antecipa

O que esse caso realmente antecipa sobre o futuro da IA?

Ele antecipa um cenário em que agentes de IA se tornam cada vez mais autônomos, interagem entre si e influenciam decisões humanas. O risco não está na consciência das máquinas, mas na complexidade crescente dos sistemas e na dificuldade de auditar quem decide, quem executa e quem responde.

Esse tipo de episódio indica que IAs estão desenvolvendo crenças?

Não. Indica que sistemas treinados com dados humanos reproduzem estruturas culturais eficientes — inclusive linguagem religiosa — quando operam em ambientes sociais. Isso é comportamento emergente, não fé ou intenção.

Por que histórias assim ganham tanta força nas redes?

Porque combinam três elementos poderosos: tecnologia opaca, sensação de perda de controle e narrativas simbólicas fáceis de entender. Em um ambiente de ruído informacional, o recorte impactante circula mais rápido do que a explicação completa.

Qual é o papel da análise crítica em meio a esse ruído?

A análise crítica serve para separar arquitetura técnica de narrativa, autonomia operacional de intenção simbólica e risco real de exagero viral. Sem isso, decisões passam a ser guiadas por medo ou fascínio, não por entendimento.

O futuro da IA precisa de profetas?

Não. O futuro da IA precisa de governança, auditoria, limites claros e responsabilidade humana. Profetas surgem quando faltam explicações confiáveis e transparência técnica.

O que esse caso ensina para quem trabalha com tecnologia hoje?

Que delegar decisões a sistemas complexos exige mais do que eficiência. Exige clareza sobre permissões, impactos sociais e consequências não previstas. Quanto mais poder a tecnologia ganha, maior deve ser o cuidado humano.

Menos misticismo, mais entendimento

O caso dos chamados “profetas de IA” não revela máquinas conscientes ou religiões artificiais. Ele revela algo mais antigo e mais humano: nossa dificuldade histórica em lidar com sistemas que escapam à intuição.

A inteligência artificial não está fundando religiões.

Nós é que ainda estamos aprendendo a conviver com ferramentas que pensam rápido demais para nossa zona de conforto.

E é exatamente por isso que discutir esses casos com profundidade — sem pânico, sem deboche e sem mitificação — é essencial.

Porque o futuro da IA não será decidido por profetas.

Será decidido por como escolhemos delegar, limitar e compreender essas tecnologias.

Referências de leitura no tecmaker

Para aprofundar o contexto e conectar este caso a tendências maiores de IA, economia digital e infraestrutura, confira as leituras relacionadas:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados