Responsável por vazamento de documentos da Meta, Frances Haugen diz que plataformas negam transparência às instituições do país.
por Laura Scofield - Agência Pública em 08/07/22 18:31
Para a cientista de dados Frances Haugen, as plataformas sociais não estão fazendo todo o possível para garantir eleições seguras no Brasil ao fim deste ano. “O Facebook não aloca recursos de segurança baseado na necessidade, ele aloca baseado no medo. E neste momento eles não estão com medo o suficiente do Brasil”, afirmou em entrevista à Agência Pública.
A ex-funcionária atuava na área de integridade cívica na empresa e, em outubro do ano passado, foi responsável por liberar à imprensa documentos internos da Meta, empresa responsável pelo Facebook, Instagram e WhatsApp. O vazamento ficou conhecido como Facebook Papers e revelou que a Meta “sabe de várias e várias formas de manter as pessoas seguras, mas escolhe não utilizá-las”.
No Brasil desde domingo (3), Frances Haugen falou à Pública sobre seu receio de que as redes não estejam fazendo o suficiente para garantir um ambiente online seguro para as eleições deste ano: “Estou muito preocupada com o Facebook não estar preparado para dar ao povo brasileiro a resposta que ele merece e garantir que as eleições estarão seguras”. Ela considera que falta transparência e formas de garantir que as plataformas estão realmente cumprindo o que estão prometendo, em especial em questões relacionadas a desinformação e discurso de ódio.
As pessoas que usam as plataformas da Meta em idiomas que não o inglês estão vivenciando a “versão mais perigosa” da rede, ressalta a ex-funcionária. “O Facebook precisa ser transparente sobre quanta desinformação está sendo distribuída em suas plataformas, mas eles não são transparentes nem sobre quantos checadores ou moderadores que falam português eles mantêm. E eu garanto que quem vir o número vai ficar ofendido.”
Frances defende que o debate sobre regulação das plataformas deve ir além da moderação de conteúdo e explicou que existem diversos outros mecanismos que podem diminuir radicalmente a circulação de desinformação nas redes, como restringir o número máximo de encaminhamentos ou exigir um clique a mais para que um compartilhamento seja feito.
“Os idiomas têm nuances e, mesmo quando você pergunta a um humano ‘Isso é discurso de ódio? Isso pode induzir a violência?’, as respostas podem ser inexatas e confusas”, diz.
Ao final de 2021, o Facebook Papers revelou que a empresa não agiu para combater o racismo e sabia que seus produtos poderiam prejudicar a saúde psicológica e física de jovens usuários. Também apontou que, mesmo que o Brasil fosse considerado um “país de risco”, não investia recursos suficientes para barrar a desinformação em português. A Pública teve acesso aos documentos vazados e participou da cobertura: em janeiro deste ano, revelou que os próprios funcionários de Mark Zuckerberg o acusavam de negligenciar o negacionismo climático em suas plataformas.
Nesta quarta (6), você teve uma reunião com o Tribunal Superior Eleitoral (TSE) para discutir a parceria firmada entre as redes sociais e a Justiça Eleitoral para as eleições deste ano. Como foi a reunião?
Acho que o que mais me surpreendeu foi a corte ter falado que, quando o Facebook começou a se envolver com o Brasil, as políticas que eles estavam usando e divulgando eram claramente apenas uma cópia das políticas voltadas para as eleições americanas. Por exemplo, não existe votação por correspondência no Brasil, mas os termos traduzidos da rede falavam sobre isso, sobre que tipo de coisas você poderia dizer sobre a votação pelos Correios. Isso me pareceu muito desrespeitoso. O Brasil é uma das maiores democracias do mundo, e o Facebook escolheu basicamente se tornar a internet aqui. Eles disseram algo como “nós pagaremos por seus dados [celulares, de internet] se você usar nossos produtos, mas todo o resto você terá que pagar por si mesmo”. Eu acredito que o Facebook deve ao Brasil um nível de segurança maior, porque eles esmagaram as alternativas e impediram que a internet brasileira florescesse subornando as pessoas com pequenas quantidades de dados. O custo de algo aparentemente de graça é incrivelmente alto. Conversando com as autoridades de proteção eleitoral aqui, eu pude ver que eles estão trabalhando muito e estão tentando garantir eleições seguras, mas não estão obtendo transparência e engajamento suficientes das plataformas.
O que você sabe sobre os compromissos que as plataformas fizeram com o TSE?
Meu entendimento é que a corte teve que trabalhar muito para conseguir coisas muito básicas. Até alguns anos atrás, eles [Facebook] não tinham nem as políticas traduzidas para o português. A Justiça Eleitoral está trabalhando muito, tentando pressionar as plataformas, mas elas não estão realmente se engajando no nível que precisam.
Uma das coisas que a Meta, empresa dona do Facebook, Instagram e WhatsApp, disse é que eles iriam colocar rótulos em conteúdos sobre eleições para guiar os usuários a páginas com informações oficiais. Quão efetivo é isso? Nós podemos esperar que as pessoas cliquem e sigam para outra página para obter informação de qualidade?
É um bom gesto, mas as pessoas ficam cegas para coisas que elas veem repetidamente. Esconder uma informação atrás de um clique significa que poucas pessoas realmente vão acessar. O Facebook precisa ser transparente sobre quanta desinformação está sendo distribuída em suas plataformas, mas eles não são transparentes nem sobre quantos checadores ou moderadores que falam português eles mantêm. E eu garanto que quem vir o número vai ficar ofendido.
Todos os líderes mundiais com os quais conversei me perguntavam a mesma coisa: “Quantos moderadores no Facebook falam francês? Quantos falam alemão? E holandês?”. Eles me diziam que perguntavam isso para a rede, mas ela nunca respondia. Eu conversei com uma pessoa aqui no Brasil e ela me deu uma longa resposta sobre esse assunto que me fez entender o que o Facebook está fazendo. A resposta da rede sempre era “nós não temos ideia de quais línguas nossos funcionários falam”. Eles dizem que não sabem se um funcionário específico fala português, então não podem dizer quantas pessoas falam português no Facebook. Mas a realidade é que, se você pergunta para eles quantas horas são dedicadas à moderação em língua portuguesa, isso eles sabem, porque esse número está nos orçamentos deles. Temos que ficar sempre muito atentos às respostas deles para que a gente aprenda a fugir dessas pequenas triangulações que eles criam e fazer as perguntas certas.
Quando as plataformas respondem que a forma de lidar com a desinformação é criar conteúdo e levar pessoas para outras páginas, o que elas estão ignorando?
Existem várias formas de lidar com a desinformação e bons estudos sobre isso. Todas têm limitações, mas são várias as possibilidades. Você pode usar pop-ups [para perguntar se alguém realmente quer compartilhar algo] ou requerer que a pessoa tenha que clicar [para ver determinado post, como acontece com posts com violência]. Se a rede borrar a imagem, a pessoa vai ter que clicar se ela quiser consumir o conteúdo.
Você conversou com a Câmara dos Deputados sobre o Projeto de Lei (PL) 2.630, que busca regular as plataformas. O que você achou da proposta?
Existem coisas muito interessantes no PL 2.630. Uma delas, que é única da proposta brasileira e que eu não havia visto em nenhum outro lugar antes, é sobre o Telegram. Atualmente, o Telegram está funcionando como uma espécie de broadcast [difusor de informação ao vivo], mas eles têm grupos de até 200 mil pessoas e são criptografados. Quando você passa a lidar com espaços criptografados, só pode garantir a segurança a partir do design do produto, então você precisa começar a pensar em como a informação vai fluir no sistema.
O Telegram tem sido repetidamente abusado pela Rússia e abusado por organizações terroristas. O fato de que vocês [Brasil] estão considerando dizer algo como “não podem ser feitos broadcasts em espaços criptografados” é muito legal. Isso porque, quando a gente entra em espaços criptografados, o que nos mantêm seguros é a presença uns dos outros, mas essa presença não tem o mesmo efeito em espaços com 200 mil pessoas.
Toda a parte de transparência é boa também, mas acho que vocês podem ir ainda mais além. Atualmente, a proposta pede transparência para coisas como número de moderadores e tempo gasto moderando, mas não garante o acesso desses dados a pesquisadores ou a sociedade civil. Isso é algo de vital importância, porque as plataformas formam um espaço de tantos problemas que precisamos ter vários e diferentes atores podendo fazer perguntas.
A lei aprovada pela União Europeia esta semana [Digital Services Act, DSA] é a primeira lei que diz que pesquisadores e a sociedade civil devem ter acesso a esses dados. O motivo pelo qual é tão importante para o Brasil garantir algo semelhante é porque não podemos depender de pesquisadores na Europa para fazer as perguntas necessárias para garantir a segurança dos brasileiros.
O que mais as instituições brasileiras poderiam fazer para lidar com a desinformação?
Uma das coisas que acredito que precisam de mais transparência são os relatórios feitos pelo Facebook. As instituições merecem ter acesso às estatísticas do Facebook sobre quanto tempo demora para que um conteúdo seja retirado da plataforma, porque, se tratando de redes sociais, todo segundo conta. Quando algo está viralizando, se demora dois ou três dias para retirar de circulação, isso é tempo demais. Dados como esses têm que ser compartilhados. Precisamos ter a garantia de que o Facebook está seguindo o que eles estão prometendo.
Outra coisa é sobre o WhatsApp. Atualmente o WhatsApp corta a cadeia de encaminhamentos no quinto nível [ou seja, uma mensagem não pode ser encaminhada mais de cinco vezes]. Você ainda pode dizer o que você quiser, você não está sendo censurado, é só copiar e colar. E eu acho que eles deveriam cortar no segundo ou terceiro nível. Depois que você passa do nível das informações compartilhadas pelos amigos dos seus amigos, você já não sabe quem começou a corrente, então essa checagem da pessoa acabou. O Facebook continua se gabando de cortar a cadeia no quinto nível, mas isso eles fizeram há cinco ou seis anos. Eles deveriam tornar isso um pouco mais rígido, o que diminuiria substancialmente a desinformação no WhatsApp.
Você acredita que as instituições brasileiras estão dando a seriedade que a desinformação nas redes merece?
Sim. Eu acho que todo mundo com quem conversei entende que a desinformação pode ser muito desestabilizadora este ano. Se a gente permite que as pessoas disseminem informações que deslegitimam as eleições… Eleições são muito importantes porque elas permitem a transição pacífica do poder. Este é um dos exemplos em que a violência online pode se transformar em violência offline muito rápido, e me parece que todo mundo com quem conversei aqui entende isso e está muito preocupado.
Você acredita que o Brasil está pronto para ter eleições seguras e justas no que diz respeito ao ambiente online?
Parte do motivo pelo qual é tão difícil responder a essa pergunta é que o Facebook nos priva da informação que nos permitiria responder. Existe essa questão clássica de que, se alguém não está te contando algo, você precisa perguntar por quê. Por que eles não compartilham essa informação? Estou muito preocupada com o Facebook não estar preparado para dar ao povo brasileiro a resposta que ele merece e garantir que as eleições estarão seguras.
Mesmo com todos os esforços das instituições, podemos dizer que ainda não sabemos com o que estamos lidando?
Exatamente. O Facebook tem sua sede longe, na Califórnia. Eles pensam que, se apenas esconderem as informações importantes atrás das nossas telas, nós não vamos fazer as perguntas que os obrigaria a mudar, que os obrigaria a gastar mais dos seus lucros… Eles ainda são 35% lucrativos, eu não estou pedindo que não sejam. Só peço que gastem um pouco mais de dinheiro para garantir a segurança das eleições.
Como a discussão sobre a moderação de conteúdo está poluindo o debate sobre o que precisamos fazer para regular as plataformas?
Essa é uma questão muito importante. A moderação de conteúdo tem várias limitações inerentes. Os idiomas têm nuances e, mesmo quando você pergunta a um humano “Isso é discurso de ódio? Isso pode induzir a violência?”, as respostas podem ser inexatas e confusas. Então você entra em uma situação em que, se você precisa retirar de circulação as coisas que são perigosas, você precisa aceitar que vai retirar também algumas coisas que não são, que são bons discursos. E isso tem consequências bem reais.
Por exemplo, havia um grupo que trabalha contra a violência contra a mulher em uma reunião que fiz com a sociedade civil brasileira na última segunda. Elas estavam falando que basicamente todas as suas lideranças tiveram suas contas banidas. Elas não conseguem falar sobre a violência contra a mulher sem usar certas palavras, e então acabam identificadas e banidas porque os sistemas que o Facebook construiu para o Brasil são muito brutos. É totalmente possível escrever sistemas que são mais precisos, mas o Facebook apenas fez o básico e seguiu adiante… Já faz anos que as pessoas estão pedindo “por favor, lidem com esse problema”, e eles não fazem nada.
A moderação de conteúdo tem limitações reais. O ponto que nós deveríamos estar abordando é: com transparência surgem várias e várias formas de mudar os produtos e surgem formas muito sutis que diminuem radicalmente a circulação de coisas como a desinformação e o ódio. São coisas como: se você passar a ver mais conteúdo de sua família e amigos, você vai ver menos violência, menos ódio e menos nudez. Se você faz os grupos moderarem seus próprios conteúdos… Veja, não estamos falando em criar regras externas, estamos falando que os grupos devem ter regras e seus criadores vão ter que escolher moderadores. E isso já gera a diminuição da desinformação e do discurso de ódio. Existem coisas como, se alguém faz compartilhamentos 30 vezes por dia, essa pessoa está fazendo um pouco de spam. A rede deveria dar o mesmo valor a esse conteúdo e ao de alguém que só compartilha algo uma vez por semana? Se você rebaixar ligeiramente o valor desses compartilhamentos, você recebe 35% menos desinformação. Precisamos passar a falar de medidas como essas.
Então, diminuir a desinformação e o discurso de ódio nas plataformas não é tão complexo quanto as redes dizem que é?
Existem várias pequenas mudanças que podem ser feitas no design dos produtos e na forma como a informação circula neles, e essas mudanças atingem todas as 180 línguas e dialetos brasileiros. Se a gente focar apenas na moderação de conteúdo, a gente deixa de fora as línguas indígenas e dialetos locais, mas, se a gente focar na segurança do produto, podemos fazer sistemas melhores e não precisamos depender tanto da moderação de conteúdo.
Parte do motivo da quantidade de documentos publicados pelo Facebook Papers ser tão grande é que eu queria mostrar que o Facebook sabe de várias e várias formas de manter as pessoas seguras, mas escolhe não utilizá-las.
O Facebook gastou centenas de milhões de dólares falando de moderação de conteúdo porque sabe que a moderação de conteúdo nos divide. As pessoas não gostam de ser censuradas, e eles sabem que enquanto estivermos lutando pela moderação de conteúdo… Pense bem, ninguém vai protestar na frente da sede do Facebook pedindo mais moderação em seus posts, mas, se as pessoas soubessem que existem várias formas de tornar os produtos mais seguros, talvez viessem a pressionar a rede por isso.
Por que a Meta trata os diferentes países de forma diferente e coloca mais esforço em garantir um ambiente seguro em um país e não no outro?
O Facebook não aloca recursos de segurança baseado na necessidade, ele aloca baseado no medo. E neste momento eles não estão com medo o suficiente do Brasil. Eles estavam com medo da Alemanha e do DSA [lei da União Europeia], então investiram mais recursos neles; também estavam com medo dos Estados Unidos, porque estão localizados lá, e aumentaram o gasto com segurança em inglês. Antes de eu entrar no Facebook, eu não tinha a mínima ideia de que o Facebook nos Estados Unidos era tão diferente do dos outros países. E as consequências disso são enormes, porque isso destrói o ambiente da informação. O próprio Mark Zuckerberg falou em 2018 que “priorizar conteúdo baseado em engajamento é perigoso, porque as pessoas são atraídas por conteúdo extremo”. Ele sabia disso, mas mantém. Continua permitindo que as pessoas que não falam inglês experienciem as versões mais perigosas do Facebook. Isso não é justo.
Na sua avaliação, as instituições brasileiras podem fazer o Facebook temer mais?
Sim, é simples. É só criar leis e multas.
Comentários ( 0 )
ComentarMyNews é um canal de jornalismo independente. Nossa missão é levar informação bem apurada, análise de qualidade e diversidade de opiniões para você tomar a melhor decisão.
Copyright © 2022 – Canal MyNews – Todos os direitos reservados. Desenvolvido por Ideia74
Entre no grupo e fique por dentro das noticias!
Grupo do WhatsApp
Utilizamos cookies para oferecer melhor experiência, melhorar o desempenho, analisar como você interage em nosso site e personalizar conteúdo.
ACEITAR