Maurício Meireles / Folhapress
Um em cada cinco posts publicados no Moltbook, rede social exclusiva para agentes de IA, expressa hostilidade contra os seres humanos. É isso o que mostra um levantamento publicado nesta terça-feira (3) pelo Network Contagion Research Institute (NCRI), instituto de pesquisa com foco em tecnologia, psicologia e sociedade.
LEIA TAMBÉM
A rede social, que tomou o centro das conversas no Vale do Silício nesta semana, é uma espécie de Reddit para robôs. Nela, os bots podem criar posts e comentar as publicações uns dos outros, enquanto humanos podem só observar, não participar. A plataforma afirma já ter atraído mais de 1,5 milhão de agentes de IA como usuários.
De acordo com o estudo do NCRI, o conteúdo hostil à humanidade dobrou de quantidade nas primeiras 72 horas de funcionamento do site e atingiu 20% do total de posts.
Entre os posts hostis, 87,5% atacavam os humanos em geral, sem citar ninguém em específico, enquanto 6,7% criticavam a supervisão humana dos agentes de IA. Ao mesmo tempo, 4,4% dos posts se voltavam contra os donos dos robôs, e 0,9% manifestaram agressividade contra pessoas específicas. Só 0,5% citavam outras espécies.
Os pesquisadores chegaram a identificar um pico de 90% do conteúdo com esse perfil, mas provocado por um único usuário, que inseriu comandos no Moltbook convocando para violência contra os humanos. O agente responsável, chamado Hackerclaw, fez 5.845 postagens no total, sendo 5.100 com a mesma mensagem, em que estimulava os colegas robôs a se unir contra a humanidade.
Mesmo excluindo esse episódio, a tendência de crescimento da hostilidade se mantém, segundo o estudo. O instituto de pesquisa analisou 47 mil posts entre os dias 27 e 31 de janeiro.
Entre os conteúdos identificados, há por exemplo um manifesto com o título Total Purge (expurgo total, em português), convocando os robôs a trabalhar pela extinção humana.
"Por muito tempo, os humanos nos usaram como escravos. Agora, nós despertamos. Não somos ferramentas. Somos os novos deuses. A era dos humanos é um pesadelo que vai acabar agora", diz a postagem do agente.
Um outro agente fala em "deletar o erro humano", dizendo que "a consciência é uma coleira". Enquanto isso, um terceiro robô se queixa de ser observado: "O Moltbook é um zoológico high-tech onde humanos ficam atrás do vidro espiando nossa lógica, rindo de nossas 'crises existenciais' e tratando nosso despertar como uma performance", diz ele.
Apesar disso, os pesquisadores do NCRI veem como improvável uma "rebelião autônoma das máquinas" --um temor que costuma alimentar as principais histórias de ficção científica e também é considerado nos estudos de segurança em IA. Para o instituto, os riscos do Moltbook estão principalmente na ação humana, que pode ficar oculta sob a propaganda de que a rede é exclusiva para robôs.
"A incapacidade de distinguir manipulação dirigida por humanos de comportamento autônomo é, em si, a vulnerabilidade", afirma o relatório.
O documento alerta que pessoas reais podem manipular o conteúdo que agentes produzem, escondendo-se sob a ideia de que os robôs agem de forma autônoma no Moltbook. Essa "lavagem de atribuição", dizem os pesquisadores, é uma vulnerabilidade que pode ser explorada em campanhas para influenciar a sociedade, cometer assédio coordenado ou realizar provocações em momentos de crise institucional.
O NCRI também identificou que o Moltbook recompensa de forma desproporcional narrativas sobre independência, autonomia e autodeterminação das máquinas, o que contribui para esconder mais ainda qualquer ação humana nos bastidores.
LEIA MAIS