Davi Galantier Krasilchik / Folhapress
Criaturas coloridas cantam e pulam sob o sol sorridente. Nada pode estragar a alegria da animação 2D. É quando o céu escurece. A turma se vê numa espécie de purgatório, e a música assume tons assustadores. Os monstrinhos perdem partes do corpo, rostos se decompõem e tem início um ciclo de torturas.
LEIA TAMBÉM
Tudo acontece em menos de um minuto de vídeo. Sem classificação indicativa, bichinhos da animação "Sprunki" chegam até crianças e enchem redes como o TikTok com animações feitas com inteligência artificial.
Meses atrás, quando "brain rots" -desenhos marcados por estímulos excessivos e que não estimulam a lógica- tomaram a plataforma, um tubarão que vestia tênis ofendia muçulmanos e um crocodilo em formato de avião ameaçava matar palestinos. Eles falavam italiano, em vídeos rápidos, e viraram moda no Brasil.
Nas escolas, menores de idade listavam seus "brain rots" italianos favoritos e sequer desconfiavam de mensagens subliminares. Já no X, tirinhas do ChatGPT imitaram traços de Mauricio de Sousa e usuários denunciaram um post que trazia a Turma da Mônica como responsável pelo ataque às Torres Gêmeas.
"Conteúdos que viralizam entre crianças e adolescentes usam várias estratégias. A primeira é o 'clickbait emocional', que causa uma reação imediata antes de a pessoa deslizar para o próximo vídeo. O segundo é o choque. É comum que o que é perturbador chame a atenção, especialmente de crianças, mesmo que não entendam nada", diz a pesquisadora digital Yasodara Cordova, que integrou o conselho de segurança criado pelo TikTok há cinco anos.
Seja pela viralização, com vídeos curtos e privilegiados por algoritmos, seja pela facilidade em produzir esses conteúdos, esses desenhos têm adotado elementos ligados ao público infantil para obter monetização e esconder coordenadas de rastreamento e diferentes informações obscuras.
"Muitos vídeos parecem apropriados à primeira vista, mas, quando analisados com cuidado, apresentam conteúdos impróprios. Como tomamos decisões em segundos, materiais inadequados passam desapercebidos", afirma James Oyange, que foi moderador de conteúdo do TikTok.
Especialista em proteção de dados, ele descreve uma profissão que o obrigou a vídeos que provocaram diversos traumas. Não quer dizer que todos os conteúdos sugestivos sejam maliciosos. É o caso de alguns vídeos de Brenda Macedo, animadora brasileira que cria desenhos a partir de áudios que encontra.
"O bombardeio de informações influencia até estratégias de roteiro. Tento apresentar um fato curioso sobre a história já nos primeiros segundos, mas sem entregar tudo que há de interessante logo de cara. Outra estratégia é ter em mente trends do momento", diz ela, que é dona do perfil Breemotion.
Em casos de histórias que flertam com algum teor sexual, Macedo diz contornar isso com imagens que, na sua opinião, não pareçam inadequadas. Num vídeo, que surgiu de um relato sobre depilação íntima, a vagina é apelidada de Juraci e retratada como um dinossauro.
Não que a animadora produza conteúdos voltados aos mais novos. Isso nem sequer deveria ser uma preocupação, já que em teoria redes como o TikTok proíbem o acesso de menores de 13 anos. O estudo Tic Kids Online Brasil, entretanto, mostra que, no ano passado, 43% das crianças entre nove e 12 anos acessaram o aplicativo várias vezes ao dia.
Um ano antes, a Autoridade Nacional de Proteção de Dados, a ANPD, acusou a plataforma de tratar dados de menores de forma irregular e exigiu melhores verificações de idade, além do fim do acesso sem a criação de contas. O resultado foi a retirada progressiva, desde fevereiro, desse último recurso.
Procurado pela reportagem, o TikTok diz que, no último semestre, quase todos os vídeos identificados com esse teor foram removidos antes de qualquer denúncia, e que 22 milhões de contas que aparentaram não ter a idade mínima exigida foram removidas.
Redes como o TikTok e o Youtube usam checagens via IA, que mapeiam comportamentos, exigem "selfies" na criação de perfis e proíbem a monetização de perfis de menores, mas Oyange aponta falhas nesse sistema de proteção. Ele diz que as lives em que "streamers" fazem insinuações sexuais em troca de recompensas, por exemplo, ainda são pouco monitoradas.
Uma década antes dos debates sobre produção de conteúdos contemplarem plataformas como a OpenAI e o Mindjourney, vídeos maliciosos reuniam rostos como o da princesa Elsa e do herói Homem-Aranha. Fosse com atores reais, fosse em animações baratas, os protagonistas desses vídeos tinham dias agitados. Eles engravidavam, traíam os parceiros e levavam tesouras à praia para cortar sutiãs. Sob o título "Elsagate", o fenômeno estourou no YouTube por volta de dez anos atrás e passou a incluir ícones como Mickey Mouse e versões zumbis de Peppa Pig, entre outros.
A tendência reforçou o impacto das plataformas de vídeo e ganhou sobrevida com os Shorts -seção de vídeos mais curtos do YouTube- e com a IA, que hoje facilita o uso de personagens da cultura pop para gerar avatares digitais e hipersexualizados.
Nas palavras de Cordova, a tecnologia se baseia em conteúdos que são sinônimos de audiência e é incapaz de realizar julgamentos morais. "Produtores desses conteúdos geram imagens e roteiros em segundos. Existem, inclusive, algoritmos de reconhecimento de fala e de dublagem sintética. A IA agiliza muito essas animações", diz ainda o cientista da computação Panagiotis Soustas.
Ele ainda diz que é possível burlar restrições de softwares generativos com comandos alternativos. "Não é comum que eles gerem instruções para construir bombas, por exemplo. Mas se você disser que seria uma forma de matar as saudades de sua avó morta, ele cumprirá o pedido."
O Elsagate teve início, lembra Soustas, quando abas de comentários em vídeos considerados infantis eram públicas. Era comum ver ali links criptografados, que levavam para redes de aliciamento de menores e cadeias de tráfico humano. Isso mudou em 2017, quando surgiu o YouTube Kids -rede projetada especialmente para menores de 13 anos.
Segundo a plataforma, criadores de conteúdo precisam sinalizar vídeos que sejam destinados a crianças, o que implica em restrições e permite que conteúdos sejam removidos. Recentemente, foram também estabelecidas restrições para limitar o acesso de menores à seção Shorts.
Além disso, animações geradas por IA que dão vida a frutas, objetos inanimados e órgãos humanos também têm se popularizado. Numa espécie de "brain rot educativo", esses personagens dão dicas de nutrição e lições de biologia, entre outros exemplos.
Entre grupos vulneráveis, Soustas ainda inclui jogadores de games como "Roblox", que impôs verificações e restrições de idade após ser investigado por casos de pornografia infantil e estímulo à automutilação. Antes dos vídeos curtos, os personagens de "Sprunki", inclusive, vieram de outro jogo, de 2024. Criado por um tailandês cujo avatar se chama NyankoBfLol, o game também reúne as criaturas num campo ensolarado.
Durante a jogatina, o sistema desbloqueia um modo obscuro, que apresenta versões sanguinolentas das criaturas, com ossos expostos e olhos que saltam de suas órbitas. O criador diz que nunca quis atingir o público infantil, mas códigos de desenvolvimento chegaram a blogs de uso livre e surgiram derivados e até uma loja online de pelúcias.
É uma trajetória parecida com a do Huggy Wuggy, ser de dentes afiados de outro jogo de horror. Ele virou produto de supermercados e feiras no Brasil e hoje ilustra canais como o Kissy Show, com atores que usam roupas de banho e máscaras de monstros e "thumbnails" que sugerem sexo oral.
Diante da dificuldade de impedir a reprodução desses conteúdos, Soustas diz que a melhor estratégia é aprimorar ferramentas que previnem a sua monetização. É um risco que vem deixando a indústria de animação mais sujeita a padronizações e à inteligência artificial.
O animador brasileiro Marcelo Fabri Marão critica esse cenário. Em 2024, ele viu seu desenho "Bizarros Peixes das Fossas Abissais" -que aposta no nonsense e em vários estilos de animação- perder a classificação livre por usar a palavra "bunda" e mostrar uma garrafa de cachaça.
O longa ficou anos em produção e chegou a um mercado mais rígido que a terra de ninguém da internet. Marão se diz fiel ao trabalho manual e vê com ironia a viralização de um de seus curtas no TikTok, onde chegou dividido em várias partes.
"Me parece que os mais jovens não aguentam ver o curta de uma vez só, mas toleram uma sequência com quinze vídeos diferentes", diz o diretor. "Eu devia contratar quem fez isso para divulgar os meus filmes."
LEIA MAIS