Uma empresa que tem entre seus diretores um ex-espião israelense está gerenciando um serviço que usa o Facebook para criar uma base de dados com os rostos das pessoas. Essa base de dados é vendida como um produto para que os clientes da empresa - que podem ser desde outras empresas até entidades governamentais - usem-na para fins de "segurança proativa" [actionable intelligence]. De acordo com a Forbes, o serviço em questão se chama Face-Int. Ele contém perfis faciais de milhares de pessoas, "colhidos de fontes online como o YouTube, o Facebook e fóruns abertos e fechados do mundo todo" nas palavras da empresa. window._r4Ads.call('div-gpt-ad-1618237256620-1'); window._r4Ads.call('div-gpt-ad-1618237256607-13');No total, a empresa que gerencia o serviço diz ter dados extraídos de mais de 35 mil fotos e vídeos de clipes de recrutamento e campos de treinamento de terroristas. No entanto, a Forbes notou que a página do produto está no ar desde ao menos 2013, o que indica que o número atual de vídeos e perfis coletados pela empresa deve ser bem maior. O serviço foi criado pela empresa Terrogence, fundada por sua vez pelo ex-agente secreto israelense Shai Arbel. A Terrogence foi então comprada pela Verint, da qual Arbel é atualmente listado como vice-presidente de pesquis em inteligência. window._r4Ads.call('div-gpt-ad-1618237256620-2'); window._r4Ads.call('div-gpt-ad-1618237256607-4'); Mais que contra-terrorismo Na página da Terrogence, o Face-Int é descrito como "uma tecnologia de reconhecimento facial baseada na inteligência" que "ativamente monitora e coleta perfis online e imagens faciais de terroristas, criminosos e outros indivíduos que, acredita-se, representam ameaça à segurança da aviação, segurança nacional e imigração". window._r4Ads.call('div-gpt-ad-1618237256620-3'); window._r4Ads.call('div-gpt-ad-1618237256607-6'); Ou seja: qualquer pessoa suspeita pode entrar na lista de vigilância da empresa. E embora o objetivo declarado da Terrogence seja ajudar empresas, governos e autoridades a combaterem terrorismo, a Forbes notou que os perfis de LinkedIn de atuais e ex-funcionários da empresa listam também outras atividades. Por exemplo: uma ex-funcionária da empresa diz ter "conduzido operações de gerenciamento de percepção pública em nome de clientes governamentas domésticos e estrangeiros". A mesma funcionária também alegava ter usado "práticas de inteligência open-source e métodos de engenharia de redes sociais para investigar grupos sociais e políticos". window._r4Ads.call('div-gpt-ad-1618237256620-4'); window._r4Ads.call('div-gpt-ad-1618237256607-8'); Como funciona? O Face-Int, segundo a empresa que o criou, processa vídeos e fotos disponíveis publicamente na internet (como a sua foto de perfil do Facebook, por exemplo) e produz "um arquivo de imagem genérica biométrica de alta resolução, que pode ser exportado para sistemas biométricos em geral". window._r4Ads.call('div-gpt-ad-1618237256620-5'); window._r4Ads.call('div-gpt-ad-1618237256607-17'); Isso significa que os perfis de pessoa gerados pela tecnologia podem ser exportados para sistemas de segurança. Nesse caso, "a base de dados da Face-Int permite que as imagens de captura facial sejam comparadas com perfis existentes, para que suspeitos possam ser identificados e apreendidos em questão de minutos após sua detecção por uma câmera", ainda segundo o site. Em outras palavras, um rosto que esteja na base de dados da empresa e que seja detectado pela câmera inteligente de um cliente gera um alerta à empresa. Dessa forma, a base de dados gerada pela Face-Int serve como uma espécide de "lista negra" que pode levar certas pessoas a serem apreendidas quando forem vistas por uma câmera conectada ao sistema. window._r4Ads.call('div-gpt-ad-1618237256620-6'); window._r4Ads.call('div-gpt-ad-1618237256607-10'); Preocupações Na opinião de Jay Stanley, analista sênior de políticas da União de Liberdades Civis dos Estados Unidos (ACLU), sistemas como o Face-Int "intensificam as possíveis consequências negativas" das tecnologias de reconhecimento facial. window._r4Ads.call('div-gpt-ad-1618237256620-7'); window._r4Ads.call('div-gpt-ad-1618237256607-14'); "Se empresas privadas estão rastreando fotos e combinando-as cominformações pessoais para fazer julgamentos sobre pessoas - se você é terrorista ou quão provável é que você roube uma loja ou algo do tipo - isso expõe todos ao risco de ser confundido, ou de ser corretamente identificado mas julgado erroneamente", disse ele em entrevista à Forbes. Jennifer Lynch, advogada sênior da Electronic Frontier Foundation, informou ao site que se a base de dados da empresa tiver sido compartilhada com o governo dos EUA, ela ameaça os direitos de privacidade e de expressão dos cidadãos do país. E além disso, ela acredita que o uso da tecnologia em seu estado atual representa riscos graves a alguns grupos de pessoas. "Aplicar reconhecimento facial em vídeos é extremamente desafiador, e sabemos que o reconhecimento facial funciona pior com pessoas não-brancas e especialmente com mulheres e pessoas com tons mais escuros de pele. Combinando esses dois problemas com a tecnologia, há uma chance elevada que o sistema regularmente identifique erroneamente pessoas como terroristas ou criminosos", considerou. Erros fatais Segundo o Daily Mail, erros com sistemas de reconhecimento facial desse tipo podem ser chegar a apenas 0,8%. Embora seja um número pequeno, ele significa que oito em cada 1000 escaneamentos faciais dará um resultado errado - e considerando que esses sistemas fazem milhares de escaneamentos por dia, podem ser muitos erros. Além disso, os erros têm consequências gravíssimas: Steven Talley, por exemplo, passou meses em uma câmara de segurança máxima e sofreu diversas lesões após ter sido erroneamente identificado como um assaltante de banco por sistemas de reconhecimento facial do FBI, de acordo com uma reportagem do Intercept.