A Meta, empresa responsável pelo WhatsApp, Facebook e Instagram, está desenvolvendo um sistema interno capaz de monitorar os movimentos de mouse, cliques e até as teclas digitadas por funcionários nos Estados Unidos. A informação foi revelada pela agência Reuters e acendeu um alerta sobre os limites da vigilância corporativa em tempos de inteligência artificial.
Segundo documentos internos obtidos pela agência, o projeto — chamado de Model Capability Initiative (MCI) — pretende usar o comportamento diário dos trabalhadores como base de treinamento para novos sistemas de IA. Na prática, a tecnologia aprenderia observando como pessoas reais navegam em programas, preenchem formulários e executam tarefas no computador.
Além do registro de comandos e digitação, o software também faria capturas ocasionais das telas dos computadores corporativos. A Meta afirmou que os dados não seriam usados para avaliações punitivas de desempenho, mas não explicou quais mecanismos impediriam o acesso a informações sensíveis exibidas acidentalmente, como dados financeiros, mensagens pessoais ou conteúdos médicos.
O que isso significa para o Brasil?
Embora o monitoramento esteja sendo aplicado apenas em funcionários nos Estados Unidos, o caso levanta discussões importantes para trabalhadores brasileiros. Isso porque empresas de tecnologia vêm investindo bilhões de dólares em inteligência artificial e buscando novas formas de coletar dados para alimentar seus sistemas.
A própria Meta vive um momento de expansão agressiva no setor. No primeiro trimestre de 2026, a companhia registrou lucro líquido de US$ 26,7 bilhões e aumentou os investimentos em infraestrutura de IA.
No Brasil, uma prática semelhante enfrentaria barreiras da Autoridade Nacional de Proteção de Dados e da Lei Geral de Proteção de Dados, conhecida como LGPD. Especialistas apontam que qualquer monitoramento excessivo de funcionários pode gerar questionamentos judiciais sobre privacidade, transparência e limites da coleta de dados no ambiente de trabalho.





