Frances Haugen: ‘Meta não protege eleições no Brasil’

A ex-funcionária e delatora do Facebook, Frances Haugen, foi chamada para uma audiência pública com a Câmara dos Deputados nesta terça-feira (05), em Brasília.

Conhecida por realizar diversas denúncias contra a rede social no final do ano passado (os “Facebook Papers”), a ex-integrante da empresa foi solicitada para esclarecer o papel da plataforma na disseminação de informações falsas e redes de desinformação.

Estabelecida pelas deputadas federais Taliria Petrone (PSOL-RJ) e Natália Bonavides (PT-RN), a seção contou também com a representante da coalizão Direitos na Rede, Bia Barbosa, e a coordenadora senior de campanhas da Avaaz, Laura Moraes.

O Facebook também foi convidado a enviar porta-vozes para a reunião, mas declinou o convite.

Durante a sessão, a delatora dos Facebook Papers citou a aprovação recente da Lei de Serviços Digitais, (Digital Services Act), em que as plataformas são obrigadas a combater conteúdos ilegais online.

“Não devemos ter esperança de que só a Europa faça perguntas pertinentes ao Brasil. Nós devemos esperar que os brasileiros possam fazer suas próprias perguntas.”

Para ela, o Brasil está caminhando na mesma direção, com o PL 2630 – popularmente conhecido como “PL das Fake News”. Haugen chegou a elogiar o projeto, porém apresentou ressalvas com as cláusulas que isentam parlamentares de moderação.

“Eu me preocupo com esta distinção de dois níveis,” afirma. “Historicamente, há enormes consequências quando estas políticas são abusadas.”

‘Falta de respeito’

O tema principal da discussão foi como o Facebook foi utilizado para intervenção no processo eleitoral.

“Até mesmo deixar de responder perguntas simples, como quantos moderadores trabalham em português, mostram uma falta de respeito ao processo eleitoral brasileiro”, afirmou a ex-funcionária da rede social.

Antes mesmo dos depoimentos de Haugen, as convidadas argumentaram que as eleições de 2022 podem novamente sofrer com crises de desinformação, como nas de 2018 e 2020.

“Enquanto a gente não entender o que acontece dentro das caixas pretas das redes sociais, a gente talvez não consiga nem fazer as melhores perguntas para mitigar os problemas”, afirmou Moraes.

Em seguida, Barbosa falou que a questão deve ser levada para todos serviços das grandes empresas de tecnologia, que deixam a desejar sobre transparência no Brasil. A representante da coalizão citou como exemplo o relatório de transparência eleitoral do Google, apontando que o serviço não é tão claro quanto em outros países.

“Se a gente nao consegue aprovar uma regulamentação das redes sociais no Brasil, é urgente que estes agentes assumam compromissos mais efetivos, principalmente em um país como o Brasil, e principalmente em um cenário como as eleições neste ano”, completa.

A ex-funcionária do Facebook afirma que uma democracia grande e relativamente jovem como o Brasil precisa destas informações muito claras. Já em suas denúncias, ela havia listado o país como um dos três que mais necessitava de moderação.

“O Brasil merece saber quanto esforço está sendo investido pelo Facebook em termos de moderação ou de segurança e até que nível de equidade existe na moderação entre conteúdos em português e conteúdos em inglês.”

Conteúdo falso e lucrativo

Para Haugen, a situação das big techs é comparável ao setor de carros: desde o início da indústria até hoje, ela passou a ser mais segura depois que novas regulamentações entraram em vigor. Entretanto, não seria por falta de aviso que a plataforma não colabora.

“Eles não querem que o ecossistema de regulamentação opere. Eles não querem acadêmicos independentes pesquisando seus problemas.”

Em seus estudos, a delatora afirma que o Facebook teria noção de que se tornou pior mesmo quando enviou pesquisadores para diversos países da Europa em 2018. Ao medirem a reação média dos usuários antes das eleições para o Parlamento, receberam comentários, à direita e à esquerda, notando que “o que se vê é apenas o que polariza”.

Hoje, após os Facebook Papers, Haugen alega que a empresa fez “alguns pequenos gestos”, como acrescentar controles parentais e novos idiomas. Entretanto, segundo ela, a empresa tem noção de que poderia ir muito além na moderação de conteúdo.

“Quando você vê o total volume de conteúdo tóxico nessas plataformas, normalmente é um número bastante pequeno, e concentrado nas mesmas pessoas. Não é como se fosse metade do conteúdo na plataforma”, argumenta.

A delatora explica que medidas simples, como mudar a hierarquia dos conteúdos que chegam a cada um, e não diferenciar a relevância de posts de perfis muito ativos para pouco ativos, ajudaria a tornar as redes sociais mais saudáveis.

“Eles não o fazem porque isso acarretaria em perder 2 a 3% de seu lucro”, pontua. “Eles não querem perder os seus brinquedos. Eles não querem mudar o seu sistema porque dá lucros. E eles fazem dinheiro com os efeitos colaterais.”

Facebook temia que ‘TikTok’ surgisse no Brasil

Durante a sessão, Haugen apontou que o Facebook era especialmente responsável pela situação no Brasil após interferir diretamente na própria noção de internet do brasileiro. Segundo ela, isto foi feito desde fornecimento de infraestrutura até parcerias com operadoras para não cobrar consumo de dados em seus apps.

“Eles não fizeram isso para ser benevolentes”, afirma. “O Facebook tomou decisões intencionais de vir até o Brasil e acabar com uma internet aberta. Isso mudou como o caminho orgânico da internet veio.”

Para a delatora, a diferença disso para medidas similares, como as que o Google fez ao fornecer infraestrutura de internet para países africanos, estava no objetivo. A empresa teria medo de que o “matador do Facebook” viesse do Brasil – um país conhecido por sua alta adesão às redes e também pela inovação.

“Eles tinham medo que algo como o TikTok viesse do Brasil. E se eles não reprimissem a internet aberta, isso aconteceria. De onde veio isso? Da China, de um lugar onde o Facebook não era permitido.”

Como resultado, Haugen aponta que o brasileiro depende muito de um ecossistema de apps do grupo Meta para se manter conectado e informado – um processo que pode ser perigoso se a empresa não mudar seu comportamento.

“A verdade é que o Facebook destruiu com sua estrutura de proteção às eleições. Antes o Facebook tinha 300 pessoas para cuidar de [moderação relacionada as] eleições. Agora, são só 60 pessoas.”

Haugen explica que a empresa depende muito destas equipes de funcionários, já que seus algorítimos são capazes de reconhecer centros de comportamento inautêntico coordenado, mas são ações humanas que apontam os bots.

“O Brasil tem 100 mil contas ou mais que convidam 100 novas pessoas para a rede por dia, o que é sinal de robôs. O fato é: se o Facebook sabe disso e […] poderia estar agindo para evitar essas redes de influência.”

Mas ela permanece cética sobre a capacidade da empresa em proteger democracias sozinha.

“Na minha época de análise de segurança, eles só tinham 17 pessoas para lidar com essas redes. Se aparecer uma ou duas delas olhando para as eleições no Brasil, eu estaria surpresa.”

UOL Tecnologia