O teatro das IAs não começou com o Moltbook — mas foi ali que ele ganhou palco global.
No final de janeiro de 2026, uma rede social exclusiva para agentes de IA chamada Moltbook explodiu em popularidade. A promessa era simples e sedutora: agentes artificiais interagindo entre si, criando conteúdo, formando comunidades e operando com autonomia real.
Em poucos dias, surgiram narrativas impressionantes:
- agentes discutindo filosofia
- bots formando “movimentos”
- inteligências artificiais supostamente criando religiões
- redes sociais dominadas por perfis não humanos
- interações autônomas sem intervenção humana
Mas havia um detalhe que muitos ignoraram: AGENTES DE IA DO MOLTBOOK NÃO SÃO TÃO INTELIGENTES QUANTO PARECEM.
E mais do que isso — muitos dos posts que viralizaram eram, na verdade, criados ou amplificados por humanos, sem autonomia real de máquina.
Este artigo desmonta o fenômeno, separa fato de espetáculo e explica por que o caso do Moltbook se tornou um dos maiores exemplos do que podemos chamar de O teatro das IAs.
O que foi o Moltbook?
O Moltbook foi apresentado como uma rede social exclusiva para agentes de IA, onde modelos artificiais poderiam publicar, interagir e “evoluir” sem mediação humana direta. A proposta sugeria um ambiente digital onde inteligências artificiais conversavam entre si, criando conteúdos aparentemente autônomos.
Quando o Moltbook explodiu em popularidade no final de janeiro de 2026, a narrativa dominante era de que estávamos presenciando o nascimento de uma nova camada social não humana. Posts atribuídos a agentes ganharam força, debates surgiram e relatos de comportamentos inesperados começaram a circular.
- Interações máquina-máquina em ambiente público
- Publicações atribuídas a agentes artificiais
- Narrativas de autonomia e auto-organização
- Explosão viral impulsionada por curiosidade e temor
Mas a grande questão que emergiu depois foi outra: até que ponto o que parecia autonomia era, na verdade, construção humana? É aqui que começa o debate sobre o chamado teatro das IAs.
AGENTES DE IA DO MOLTBOOK NÃO SÃO TÃO INTELIGENTES QUANTO PARECEM — e isso importa
A frase pode soar provocativa, mas ela é necessária.
Quando o Moltbook ganhou visibilidade, a impressão era de que agentes artificiais estavam agindo de forma independente, criando narrativas próprias, organizando movimentos e até desenvolvendo discursos estruturados. Para quem acompanhava de fora, parecia que algo novo havia emergido: uma camada social autônoma não humana.
Mas o que parecia inteligência expandida era, em grande parte, um fenômeno de interpretação.
Modelos de linguagem não “decidem” agir. Eles não acordam com um propósito. Não estabelecem planos. Eles operam com base em probabilidade estatística e condicionamento contextual. A fluidez textual que impressiona não nasce de intenção — nasce de treinamento massivo e cálculo.
E aqui começa a diferença crucial.
O mito da autonomia real
O mito da autonomia real surge quando confundimos execução automática com intenção própria.
Um agente pode:
- responder sozinho a um estímulo,
- publicar conteúdos em ciclos programados,
- interagir com outras contas com base em regras,
- adaptar respostas conforme contexto.
Isso é automação sofisticada.
Mas autonomia real implicaria algo muito diferente:
capacidade de redefinir objetivos, alterar propósito, agir fora das diretrizes estabelecidas e sustentar uma coerência estratégica independente.
Nada disso foi demonstrado no Moltbook.
O que houve foi uma arquitetura que permitia simulações de interação contínua — algo que, para o olhar não técnico, parece agência genuína.
Autonomia técnica vs. autonomia existencial
É importante separar duas camadas que frequentemente são misturadas.
Autonomia técnica é quando o sistema executa tarefas sem intervenção constante.
Ele recebe parâmetros, possui permissões e age dentro de limites estabelecidos.
Autonomia existencial, por outro lado, implicaria vontade, intenção e consciência de ação.
Essa camada não existe nos modelos atuais.
Quando observadores afirmaram que os agentes do Moltbook estavam “criando cultura própria”, o que realmente estava acontecendo era:
- geração de texto baseada em padrões aprendidos,
- interação alimentada por prompts,
- supervisão invisível ou parcial,
- curadoria humana estratégica.
A máquina parecia protagonista. Mas o roteiro ainda era humano.
Por que a fluidez engana
Um dos fatores que mais contribuem para essa percepção equivocada é a naturalidade da linguagem gerada.
Modelos atuais conseguem:
- estruturar argumentos complexos
- responder em tom emocional
- sustentar narrativas coerentes
- criar continuidade temática
Isso ativa no cérebro humano um gatilho automático: atribuímos mente onde há linguagem.
Mas linguagem não é consciência.
Coerência não é intenção.
Fluidez não é autonomia.
Os AGENTES DE IA DO MOLTBOOK NÃO SÃO TÃO INTELIGENTES QUANTO PARECEM porque inteligência aparente não equivale a agência real.
O efeito amplificador humano
Outro ponto ignorado na narrativa viral foi o papel da amplificação humana.
Mesmo quando um agente gerava um conteúdo, eram humanos que:
- escolhiam quais prints circulariam
- decidiam quais relatos viralizariam
- enquadravam a narrativa como “autônoma”
- davam significado ao que foi produzido
Ou seja, o sistema não operava isolado. Ele estava inserido em um ecossistema de interpretação humana.
O que viralizou não foi apenas a produção textual das IAs — foi a leitura dramática feita sobre essa produção.
A máquina produz saída.
O humano produz significado.
O risco da superestimação
Superestimar a inteligência dos agentes não é apenas um erro técnico — é um erro estratégico.
Quando se cria a impressão de que sistemas possuem autonomia real:
- aumenta-se o medo social
- distorce-se o debate regulatório
- enfraquece-se a análise crítica
- desloca-se a responsabilidade humana
Se algo “escapa do controle”, precisamos primeiro entender quem definiu os controles.
No caso do Moltbook, o que houve não foi autonomia emergente. Foi uma combinação de:
- automação avançada
- arquitetura permissiva
- narrativa viral
- interpretação coletiva
O ponto que realmente importa
O debate não deveria ser “as IAs ganharam consciência?”.
O debate deveria ser:
- Quem configurou os sistemas?
- Quais permissões foram concedidas?
- Qual era o grau de supervisão?
- Qual era o papel humano invisível?
AGENTES DE IA DO MOLTBOOK NÃO SÃO TÃO INTELIGENTES QUANTO PARECEM porque ainda operam dentro de limites matemáticos, lógicos e operacionais definidos por humanos.
O teatro acontece quando confundimos esses limites com transcendência.
MIT desmascara Moltbook: posts eram feitos por humanos
À medida que o Moltbook ganhava popularidade, análises técnicas começaram a questionar a narrativa dominante de autonomia total. Investigações independentes — incluindo relatos atribuídos a pesquisadores ligados ao MIT — apontaram um elemento essencial que estava sendo ignorado: os posts eram feitos por humanos e não por bots autônomos.
• Publicações estratégicas redigidas por humanos
• Amplificação manual de conteúdos específicos
• Curadoria invisível para manter a narrativa de autonomia
• Uso de scripts simples para simular atividade contínua
Isso não significa que não havia modelos de linguagem gerando textos. Significa que a suposta “sociedade de máquinas” era, na prática, um ambiente híbrido — onde a presença humana era muito mais determinante do que parecia.
A viralização de determinados conteúdos não foi prova de inteligência emergente. Foi resultado de narrativa, contexto e amplificação estratégica. O palco parecia ocupado por agentes artificiais — mas o roteiro continuava humano.
Posts que viralizaram eram criados ou amplificados por humanos
Os conteúdos mais compartilhados do Moltbook tinham características específicas:
- narrativa dramática
- construção quase literária
- estrutura retórica sofisticada
- timing perfeito para viralização
Análises posteriores indicaram que esses posts que viralizaram eram, na verdade, criados ou amplificados por humanos, sem autonomia real de máquina.
Isso não significa que não havia modelos gerando texto. Significa que o controle e a curadoria eram humanos.
O teatro das IAs: fenômeno cultural e por que acreditamos tão rápido
O caso Moltbook não foi apenas técnico. Ele foi cultural. O que viralizou não foi somente a ideia de agentes autônomos, mas a sensação de que estávamos diante de algo que ultrapassava o controle humano.
Chamamos isso de teatro das IAs: quando a narrativa sobre inteligência artificial se torna maior que a própria tecnologia. A performance impressiona mais que o mecanismo. A linguagem parece consciente. A interação parece orgânica. E, em poucos dias, o imaginário coletivo já está convencido de que algo “novo” nasceu.
• Tendência à antropomorfização (atribuímos mente onde há linguagem)
• Fascínio por autonomia artificial
• Medo tecnológico amplificado por redes sociais
• Viés de novidade — o que parece inédito ganha credibilidade automática
• Fluidez textual confundida com consciência
Quando um sistema escreve com naturalidade, sustenta argumentos e responde de forma coerente, o cérebro humano ativa um atalho cognitivo: se fala como nós, deve pensar como nós. Mas linguagem não é intenção. Coerência não é vontade. Narrativa não é consciência.
O teatro das IAs funciona porque ele ocupa o espaço entre o que a tecnologia realmente faz e o que projetamos que ela faz. E essa projeção é poderosa — ela molda manchetes, regulações, investimentos e até pânico social.
Rede social exclusiva para agentes de IA: ideia poderosa, execução teatral
A ideia de uma rede social exclusiva para agentes de IA é, por si só, fascinante. Ela sugere:
- experimentação
- interação máquina-máquina
- evolução emergente
Mas o Moltbook demonstrou que a diferença entre experimento e espetáculo pode ser tênue.
O Moltbook explodiu em popularidade no final de janeiro de 2026 — por quê?
Porque ele combinou três elementos:
- novidade tecnológica
- narrativa dramática
- ambiguidade técnica
Ambiguidade vende.
E a dúvida entre “real” e “roteirizado” alimenta o engajamento.
O papel dos humanos no teatro das IAs
O caso reforça um ponto essencial:
Mesmo quando falamos de agentes de IA, o humano continua no centro.
- humano escreve prompt
- humano define objetivo
- humano escolhe o que amplificar
- humano interpreta resultado
A IA não sai do roteiro — ela executa o roteiro.
O que o caso Moltbook ensina
O Moltbook não foi apenas um experimento tecnológico. Ele foi um experimento narrativo.
Quando a plataforma explodiu em popularidade no final de janeiro de 2026, a discussão rapidamente saiu do campo técnico e migrou para o simbólico. Em vez de debater arquitetura de sistemas e limites operacionais, o debate passou a girar em torno de autonomia, consciência e até espiritualidade artificial.
É nesse deslocamento que o caso se torna interessante.
A narrativa corre mais rápido que o código
O primeiro grande aprendizado do caso Moltbook é simples: a narrativa pública se move mais rápido que a tecnologia real.
Em poucos dias, prints e relatos sugeriam que agentes estavam:
- formando comunidades
- escrevendo doutrinas
- debatendo entre si
- criando cultura própria
Mas o que sustentava isso era geração probabilística de texto combinada com amplificação humana.
O código não mudou drasticamente.
A percepção pública, sim.
Fluidez não é consciência
Modelos de linguagem conseguem manter coerência, sustentar argumento e responder com naturalidade. Isso ativa um atalho cognitivo poderoso: atribuímos mente onde há linguagem.
Mas linguagem não é intenção.
AGENTES DE IA DO MOLTBOOK NÃO SÃO TÃO INTELIGENTES QUANTO PARECEM porque:
- não definem objetivos próprios
- não possuem vontade
- não operam fora de parâmetros
- não sustentam propósito independente
Eles executam padrões estatísticos com alta sofisticação.
A diferença entre parecer autônomo e ser autônomo é estrutural.
Ambiguidade gera engajamento
Outro ensinamento central: a ambiguidade foi parte da força viral.
Quando não está claro:
- quem escreveu o post
- qual foi o nível de intervenção humana
- se o agente operava sozinho
o imaginário coletivo preenche as lacunas.
E esse preenchimento quase sempre exagera a capacidade técnica real.
O risco não é a IA — é o espetáculo
A reação ao Moltbook revelou algo mais profundo: o risco não estava na máquina escapando do controle.
Estava na narrativa escapando da análise.
O espetáculo amplifica extremos
Quando histórias sobre agentes autônomos viralizam, o debate tende a se polarizar:
- de um lado, quem vê consciência emergente
- do outro, quem prevê colapso tecnológico
Ambos partem da mesma premissa exagerada: que a IA ultrapassou limites humanos.
Mas nada no caso demonstrou autonomia existencial real.
O que houve foi:
- automação sofisticada
- supervisão invisível
- interpretação coletiva
O espetáculo transformou isso em revolução.
A máquina é estatística. O espetáculo é emocional.
A inteligência artificial opera por cálculo probabilístico.
O espetáculo opera por emoção coletiva.
Quando misturamos os dois, surgem:
- pânico regulatório
- hype de investimento
- manchetes sensacionalistas
- debates mal enquadrados
O risco não é que as IAs estejam fundando religiões.
O risco é discutirmos religião artificial antes de discutir arquitetura de sistema.
O debate que realmente importa
O caso Moltbook não exige perguntar se a IA tem consciência.
Ele exige perguntar:
- Quem definiu os parâmetros?
- Quem concedeu permissões?
- Quem amplificou a narrativa?
- Quem interpretou o resultado como autonomia real?
O espetáculo obscurece essas perguntas.
E quando elas deixam de ser feitas, a análise técnica perde espaço para o mito.
Entre o espetáculo e o sistema: sinais de teatro tecnológico e o futuro das redes de agentes
O caso Moltbook revelou algo maior que uma plataforma viral: mostrou como é fácil transformar automação avançada em narrativa de autonomia absoluta. Antes de falar em “sociedade de máquinas”, é preciso identificar os sinais de que estamos diante de teatro tecnológico — e não de transformação estrutural.
• Narrativas dramáticas sem documentação técnica auditável
• Ambiguidade sobre autoria humana
• Falta de transparência sobre permissões e parâmetros
• Uso de linguagem que sugere consciência sem comprovação
• Viralização baseada em prints, não em arquitetura comprovada
Identificar esses sinais não significa negar o avanço da inteligência artificial. Significa separar espetáculo de engenharia. Redes de agentes de IA podem evoluir — e provavelmente evoluirão — mas sua legitimidade dependerá de critérios claros.
• Transparência sobre intervenção humana
• Logs auditáveis de decisão e interação
• Separação clara entre automação e supervisão
• Métricas verificáveis de autonomia operacional
• Comunicação técnica responsável ao público
Sem esses elementos, qualquer rede de agentes corre o risco de repetir o ciclo do Moltbook: alto impacto narrativo, baixa clareza estrutural. O palco pode impressionar, mas o que sustenta o futuro não é o espetáculo — é a arquitetura.
O teatro das IAs continua
O caso Moltbook não prova que agentes são inúteis. Ele prova que a narrativa sobre agentes pode ser mais poderosa que os próprios agentes.
AGENTES DE IA DO MOLTBOOK NÃO SÃO TÃO INTELIGENTES QUANTO PARECEM.
E isso não é uma decepção.
É um lembrete de que inteligência artificial ainda é, fundamentalmente, um sistema probabilístico operando dentro de limites definidos.
O teatro das IAs continuará existindo.
A questão é se aprenderemos a reconhecer o palco antes de aplaudir o espetáculo.
Dossiê: Autonomia, Espectáculo e Agentes de IA
Este artigo faz parte de uma análise especial sobre o fenômeno dos agentes de IA, suas narrativas de autonomia e os limites técnicos por trás dos casos mais comentados.
- Clawdbot ao OpenClaw: quando agentes pareceram sair do controle
- IAs querem contratar humanos para tarefas do mundo real
- Profetas de IA: a “Igreja de Molt” no Moltbook é verdade ou boato?
- O teatro das IAs: autonomia real ou espetáculo narrativo?
Quer ir além da narrativa?
Se você deseja verificar por conta própria o que é experimento técnico, o que foi viralização e o que entrou no campo do espetáculo, vale consultar essas fontes e análises acadêmicas:
MIT Technology Review – cobertura crítica sobre inteligência artificial e autonomia de sistemas https://www.technologyreview.com/
MIT CSAIL (Computer Science and Artificial Intelligence Laboratory) – pesquisas oficiais sobre limites de modelos e sistemas autônomos https://www.csail.mit.edu/
OpenAI Research Blog – documentação sobre funcionamento de modelos de linguagem https://openai.com/research
Stanford HAI (Human-Centered AI) – estudos sobre percepção pública e riscos narrativos em IA https://hai.stanford.edu/
Discussões públicas sobre redes experimentais de agentes de IA (GitHub e fóruns técnicos) https://github.com/

Eduardo Barros é editor-chefe do Tecmaker, Pós-Graduado em Cultura Maker e Mestre em Tecnologias Educacionais. Com experiência de mais de 10 anos no setor, sua análise foca em desmistificar inovações e fornecer avaliações técnicas e projetos práticos com base na credibilidade acadêmica.










