Opinião

Moltbook e a democracia em risco

CRO da Morada.ai detalha como automação pode transformar a desinformação em linha de produz defende a regulamentação da IA no país

Tempo de leitura: 4 minutos


Nas últimas semanas, o Moltbook, uma rede social exclusiva para agentes de inteligência artificial (exato, humanos só podem observá-los) virou assunto na mídia pelas IAs estarem, aparentemente, desenvolvendo uma cultura própria. As conversas na rede, que funciona como um “Reddit para IAs”, renderam memes e manchetes fáceis de viralizar.

O Moltbook foi criado por Matt Schlicht, CEO da Octane AI, com apoio direto do seu agente de IA OpenClaw, um assistente de código aberto capaz de operar localmente no computador do usuário e executar ações na internet em seu nome. Múltiplos agentes passaram a ser criados via OpenClaw e a rede cresceu rapidamente. Esse movimento é mais relevante do que toda a excentricidade que circulou nas redes. O que me preocupa não é o fórum em si, é o agente deixar de ser um interlocutor no Moltbook e passar a ser um operador no nosso mundo. Vou explicar melhor a seguir.

A cobertura recente da rede se concentrou em três episódios sensacionalistas: IAs criando uma religião, IAs reclamando por direitos e IAs desenvolvendo linguagens próprias. Todos passam a ideia de uma consciência artificial emergente. Na prática, o que as IAs estão apresentando são manifestações superficiais, muitas vezes incentivadas pela própria dinâmica da plataforma, e funcionam porque lembram ficção científica.

O verdadeiro salto dessa tecnologia acontece quando a conectividade vira capacidade de ação, e não só de conversa. Quando um agente  passa a “viver” nos mesmos ambientes em que as pessoas já trabalham e decidem (WhatsApp, Telegram, e-mail, Slack, calendários e sistemas corporativos), o custo de uso praticamente desaparece: não é mais o usuário que vai até a IA pedir algo, é a IA que se encaixa no fluxo cotidiano. E, a partir do momento em que esse agente ganha autonomia para operar máquinas inteiras (navegador, desktop, automações, CRMs, ERPs) e não apenas sugerir próximos passos, ele deixa de ser um assistente e vira um operador; capaz de publicar, agendar, criar páginas, disparar campanhas e movimentar dados sozinho. O limite também começa a escorregar para fora do digital: já surgem plataformas experimentais em que agentes podem “alugar humanos” para executar tarefas no mundo físico, como uma extensão de seus braços e pernas

Como operador, o agente de IA não entrega apenas “assuntos estranhos” para circularem na internet, ele representa a possibilidade de interferir concretamente no mundo real, de forma automatizada. É aqui que surge o risco para o processo eleitoral que viveremos em breve. 

Imagine uma eleição apertada. Faltam 48 horas para a votação. Em vez de um grupo de pessoas coordenando manualmente uma campanha de desinformação, alguém aciona milhares de agentes autônomos rodando em paralelo, em servidores alugados ou em máquinas dedicadas, sem supervisão humana. Isso cria uma linha de produção de desinformação: as IAs geram textos com aparência jornalística, criam sites que simulam veículos reais, abastecem esses domínios com conteúdo, publicam simultaneamente em múltiplos canais e interagem entre si para reforçar as narrativas, simulando um “movimento orgânico”. Tudo isso com velocidade, coordenação e volume.

Quando um tema aparece em todo lugar ao mesmo tempo, quando perfis e sites se citam mutuamente, cria-se a sensação de confirmação. A campanha adversária passa as últimas horas apagando incêndio. Enquanto isso, eleitores indecisos decidem sob pressão e parte das pessoas deixa de comparecer às urnas. A checagem das informações até chega, mas chega tarde, e a correção nunca circula com a mesma força da primeira onda. Ou seja, para vencer as eleições, bastaria dominar a narrativa na reta final, e o custo para montar esse tipo de operação está cada vez menor.

No Brasil, esse risco é potencializado por características comportamentais da população. Grande parte do debate político no país acontece em canais privados, especialmente WhatsApp e Telegram, com baixa transparência e pouca rastreabilidade. O conteúdo circula rapidamente e o desmentido raramente alcança os mesmos grupos com a mesma intensidade. Somam-se a isso a desigualdade educacional que existe no país e o histórico recente de campanhas de desinformação explorando redes sociais. Temos, portanto, um ambiente fértil para operações que dependem mais de velocidade e volume do que de sofisticação narrativa.

Outro ponto crítico é a dificuldade de atribuição dessas operações. Antes, era preciso uma equipe humana, pessoas escrevendo, coordenando, pagando serviços, ajustando discursos, e isso deixava rastros. Com agentes autônomos, boa parte desse trabalho pode ser automatizada. Textos, sites, postagens e interações passam a ser gerados por sistemas, fazendo com que menos pessoas sejam diretamente envolvidas.

Nada disso significa que estamos diante de um cenário inevitável ou que a tecnologia em si seja o problema. Agentes inteligentes têm aplicações legítimas. A questão é reconhecer que a mesma infraestrutura que aumenta produtividade também reduz drasticamente a barreira para manipulação em escala, e nos perguntar: como vamos resolver isso? Podemos começar regulamentando o uso de IA no Brasil, um processo que vem se arrastando no Congresso Nacional desde 2023.

– Luis Veloso é cofundador e CRO da Morada.ai, startup especializada no uso de Inteligência Artificial (IA) para o mercado imobiliário.

Tópicos desta reportagem:


Receba em seu email um resumo semanal e GRATUITO com notícias exclusivas e reportagens sobre o mercado de IA no Brasil e no mundo

Subscription Form (#4)