Tecnologia

Facebook sabia que mudança de algoritmo aumentou desinformação, diz jornal

Folhapress | 15/09/21 - 14h32 - Atualizado em 15/09/21 - 14h32
Divulgação

A mudança de algoritmo do Facebook anunciada em janeiro de 2018 aumentou a desinformação, a violência e os conteúdos agressivos na rede social, de acordo com reportagem publicada nesta quarta-feira (15) no Wall Street Journal. Esse resultado foi inesperado, mas a empresa teria resistido a resolver o problema.

A notícia faz parte de uma série de reportagens que o jornal americano está publicando com base em documentos internos da big tech aos quais diz ter obtido acesso. Segundo os documentos, os funcionários já haviam alertado a empresa de que os efeitos estavam sendo contrários ao esperado. Uma pesquisa interna teria registrado que conteúdos tóxicos, violentos e de desinformação eram muito comuns entre os compartilhamentos.

Em 2018, já imersa em polêmicas sobre os potenciais danos à saúde mental dos usuários e a disseminação de notícias falsas, a companhia dizia que o objetivo da mudança do algoritmo era aumentar as interações entre familiares e amigos e diminuir o consumo passivo, que envolvia conteúdos jornalísticos.

A reportagem afirma que esse não foi o único motivo, no entanto: à época, o Facebook estaria enfrentando um momento de baixas interações, o que explicaria a inação da empresa frente às conclusões da pesquisa. Os funcionários responsáveis teriam proposto uma série de medidas para reverter os efeitos negativos da mudança.

Em 2020, uma das funcionárias do Facebook, Anna Stepanov, teria escrito a colegas após uma reunião com Mark Zuckerberg, fundador e presidente-executivo da rede social, que ele não estava disposto a aceitar as propostas se elas fossem reverter os impactos da mudança de algoritmo.

Há um mês, a empresa anunciou que estava colocando menos peso em compartilhamentos ou comentários de conteúdos políticos. Em entrevista, o vice-presidente de engenharia do Facebook, Lars Backstrom, disse que qualquer algoritmo pode acabar promovendo conteúdo danoso ou questionável para parte dos usuários. "Como qualquer otimização, poderão arranjar maneiras de explorar e tirar proveito", disse. "É por isso que temos uma equipe de integridade que está tentando rastreá-las e descobrir como mitigá-las da forma mais eficiente possível."