Primeiros Relatórios de Transparência do Oversight Board: principais pontos e aprendizados

ITS Rio
ITS FEED
Published in
7 min readNov 8, 2021

--

por MODERALAB

No último dia 21 de outubro, o Oversight Board do Facebook publicou os seus primeiros relatórios de transparência trimestrais, referentes ao último trimestre de 2020 e os dois primeiros trimestres de 2021. A publicação acontece em um momento em que as atenções estão voltadas aos recentes escândalos que envolvem o Facebook e as empresas do grupo, levando o Board a reforçar a importância de uma supervisão independente para resolução de conflitos gerados na rede social, além de ressaltar a necessidade de mais transparência por parte da empresa. Confira abaixo os seis pontos centrais dos relatórios que foram destacados pelas pesquisadoras e pesquisadores do ModeraLab, o laboratório de moderação de conteúdo e constitucionalismo digital do ITS.

O relatório em cinco dimensões

  • Quantitativo de submissões: um início em 11 atos

Entre o primeiro e o terceiro trimestre de funcionamento do Board, foram recebidos cerca de 524 mil casos, dos quais 25 foram sugeridos pelo próprio Facebook. Tendo em vista o objetivo de analisar apenas casos paradigmáticos, o Board selecionou 21 para revisão e realizou 11 julgamentos independentes até o fim de junho de 2021, sendo que em 8 deles a decisão do Facebook foi revertida. Importante mencionar que, além das decisões emitidas, o Board apresentou 52 recomendações à plataforma e recebeu 9.842 comentários públicos (sendo 9.666 apenas em relação ao caso do ex-presidente estadunidense Donald Trump).

Em termos de distribuição regional dos casos indicados para análise, o Board ressaltou que recebeu um número expressivo de casos dos Estados Unidos e do Canadá (46%), além de quase um quarto (22%) de envios realizados por usuários da Europa. Já o quantitativo de casos referentes à América Latina e ao Caribe, corresponde a 16%. Por sua vez, o Sudeste Asiático, o Oriente Médio e o Norte da África representam juntos 4% dos casos, e além da Ásia Meridional e África subsaariana, com 2%, representam as regiões cujos usuários menos enviaram submissões até o final de junho de 2021.

Já entre os casos pré-selecionados pelo Comitê de Seleção de Casos do Board no último trimestre de 2020, 33,3% tiveram origem na Europa e 25,9% nos EUA e Canadá. Casos provenientes da região Ásia-Pacífico totalizaram 19%, enquanto a região do Centro e Sul da Ásia e a África subsaariana representaram, cada uma, 7,4% dos casos, seguidas da América Latina e Caribe (3,7%) e do Oriente Médio e Norte da África (3,7%).

Entre janeiro e março de 2021, essa categoria de casos esteve distribuída da seguinte forma: Estados Unidos e Canadá (26,1%), Europa (18,5%), Centro e Sul da Ásia (15,2%), Oriente Médio e Norte da África (12%), América Latina e Caribe (10,9%), Ásia-Pacífico (9,8%) e África subsaariana (8,7%). No segundo trimestre de 2021, casos provenientes do Oriente Médio e Norte da África (24,2%) superaram aqueles originados da Europa (21%) e dos Estados Unidos e Canadá (14,5%). Também houve um aumento na proporção de casos da África subsaariana (13%), enquanto apelações do Centro e Sul da Ásia (11,3%), da América Latina e Caribe (8%) e Ásia-Pacífico (8%) tiveram menor participação no universo de casos pré-selecionados pelo Comitê de Seleção de Casos.

No documento, o Board expressamente solicitou às organizações da sociedade civil asiáticas, do Oriente Médio e da África subsaariana que submetam apelações, tendo em vista que, conforme o próprio relatório aponta, supõe-se a existência de diversas situações complexas envolvendo o Facebook e o Instagram nessas regiões, em níveis provavelmente superiores a outras partes do globo.

  • Conteúdos prevalentes: discurso de ódio e bullying

Dentre os primeiros casos submetidos e analisados pelo Board, duas categorias de conteúdo se destacaram: discurso de ódio e bullying. No último trimestre de 2020, por exemplo, metade das decisões emitidas pelo Board refere-se a tais categorias. Da amostra de 206.786 casos submetidos no primeiro trimestre de 2021, 35,8% se referem a discurso de ódio e 29% são relativos a bullying e assédio. Até o início de abril de 2021, esses números chegaram a 36% e 31%, respectivamente.

Apesar dos altos números, a crescente preponderância desses conteúdos não surpreende, pois parece confirmar a já conhecida dificuldade em moderar proativamente discursos de ódio e bullying. Essencialmente contextuais, tais categorias dificilmente serão moderadas de modo satisfatório devido às nuances envolvidas na sua identificação (ex: idioma, linguagem, aspectos culturais e uso de imagens).

Outro ponto que merece destaque é que algumas categorias de conteúdo, como desinformação, não costumam ser objeto de decisões “diretas” de moderação, mas acabam tendo sua distribuição reduzida por mudanças no algoritmo. Isso explica, pelo menos em parte, a falta destas categorias dentre as mais prevalentes, segundo o levantamento do Board.

  • Revisão e restauração de conteúdos: 38 casos, 33 restaurações, 2 remoções e 3 deleções por usuários

Como parte do procedimento de filtragem dos casos a serem analisados pelo Board e conforme previsto no Estatuto do Comitê, o Facebook analisou, entre outubro de 2020 e junho de 2021, a elegibilidade de 102 casos submetidos por usuários e pré-selecionados pelo Comitê de Seleção de Casos do Board. No decorrer desta revisão, a empresa identificou 38 casos significativos em que suas decisões originais precisavam ser reformadas.

Em 33 desses casos, o Facebook restaurou o conteúdo originalmente removido, e em apenas 2 casos removeu o conteúdo erroneamente mantido na plataforma. Nos 3 casos restantes, os usuários deletaram os conteúdos em questão antes que o Facebook pudesse retificar sua decisão. Quase metade (47,4%) desses casos são categorizados como discurso de ódio, enquanto 31,6% são referentes às políticas das plataformas sobre organizações e indivíduos perigosos.

Importa destacar que: nem todos os casos que tiveram sua elegibilidade confirmada pelo Facebook foram designados pelo Comitê de Seleção de Casos a painéis do Board para análise e posterior tomada de decisão.

  • Comunicação entre o Board e o Facebook: destaque ao XCheck

Ao longo do último trimestre de 2020 e dos dois primeiros trimestres de 2021, o Board enviou 156 questões ao Facebook para subsidiar seus julgamentos, tendo a plataforma respondido integralmente apenas 130 delas, enquanto 12 foram respondidas de modo parcial. O Facebook se recusou a responder 14 questionamentos.

Frente às revelações mencionadas a seguir, o Board anunciou que vai atender a solicitação do Facebook para a formulação de uma opinião consultiva sobre o sistema de verificação cruzada (XCheck). Para tanto, o comitê revisará o sistema da rede social voltado aos usuários VIPs, inclusive por meio de documentos sobre o tema que a empresa se comprometeu a compartilhar, e receberá comentários públicos que possam auxiliar na análise e na elaboração de recomendações.

Questões polêmicas

Sem dúvidas, o ponto mais sensível dos relatórios reside na avaliação do sistema de verificação cruzada adotado pelo Facebook. Diante de uma possível omissão da empresa sobre a existência desse sistema — além de sua resposta incompleta e insuficiente sobre o modo pelo qual o XCheck é realizado quando da análise, pelo Board, do já mencionado caso Trump –, surgiram diversos questionamentos.

O cenário se acentuou com as recentes publicações dos The Facebook Files, pelo Wall Street Journal, e dos Facebook Papers. As publicações, baseadas em documentos internos vazados pela ex-funcionária Frances Haugen, direcionaram os holofotes a diversos processos de moderação de conteúdo — revelando, inclusive, a real dimensão do XCheck, algo que não havia sido esclarecido até então.

Segundo o jornal, documentos internos da empresa indicam, por exemplo, que o sistema de verificação cruzada privilegia uma extensa lista de figuras públicas (políticos, celebridades, jornalistas), poupando-as da aplicação das medidas usuais de moderação de conteúdo, às quais estão sujeitos os demais usuários.

Embora o Facebook tenha fornecido esclarecimentos adicionais após essas revelações, o relatório do Board indica que o caso Trump evidencia falhas na transparência relacionada ao sistema de verificação cruzada. Salienta também seus impactos na moderação de conteúdo, sobretudo no que diz respeito ao exercício de direitos pelos usuários das plataformas da empresa, sendo necessária uma reavaliação das medidas até então implementadas.

Desafios após a advertência

O maior obstáculo para o Facebook, a partir da análise dos relatórios trimestrais, parece ser a adoção de práticas mais transparentes. De modo geral, as recomendações do Board, para além das já mencionadas, vão no sentido de propor medidas concretas para esclarecer os mecanismos de moderação de conteúdo para os usuários finais, como a tradução das políticas das plataformas para diversos idiomas.

Tendo o Board assumido esse compromisso, supõe-se que tais dimensões venham ainda a repercutir nos próximos relatórios que serão, daqui em diante, publicados ao final de cada trimestre. Aliás, relatórios anuais também serão publicados a fim de demonstrar o nível de cumprimento por parte do Facebook das decisões e recomendações emitidas pelo Board.

Tendo em vista que, conforme ressaltado pelo Board, sua legitimidade e a consistência de suas decisões dependem fortemente da confiança e da acurácia das informações apresentadas pelo Facebook, devemos ficar atentos aos próximos capítulos ou, melhor dizendo, aos próximos relatórios de transparência.

Acesse o relatório completo aqui (versão em inglês).

--

--

O Instituto de Tecnologia e Sociedade do Rio estuda o impacto e o futuro da tecnologia no Brasil e no mundo. — www.itsrio.org