10 pontos de atenção sobre o PL das Fake News (PL 2630/20)

ITS Rio
ITS FEED
Published in
8 min readMar 29, 2022

--

Análise do ITS sobre os impactos do PL 2630/20

A Câmara dos Deputados está prestes a votar o PL 2630/20, conhecido como “PL das fake news”. O texto hoje trata de questões que vão muito além do combate à desinformação e representa a maior transformação nas leis sobre Internet no Brasil em quase uma década.

O ITS separou 10 pontos de atenção com base na última versão do texto. Eles revelam o impacto da mudança que se está prestes a aprovar e podem auxiliar tanto nos debates legislativos como na sua melhor compreensão pela sociedade.

  1. O PL consagra a imunidade parlamentar nas redes sociais, dificultando a moderação de conteúdo publicado por deputados e senadores (art. 22 §7º)

A imunidade parlamentar material, segundo o art. 53 da Constituição, garante que deputados e senadores são invioláveis, penal e civilmente, por suas opiniões, palavras e votos. Com o PL2630 fica mais claro que essa imunidade também vale nas redes sociais.

A imunidade assegura que deputados e senadores não possam ser processados por suas manifestações no exercício do mandato, mas é fácil perceber como esse dispositivo vai desestimular que empresas de redes sociais atuem para moderar o conteúdo publicado por congressistas.

O PL2630 pode acabar, em nome da imunidade parlamentar, dando um passe livre para que contas de deputados e de senadores possam ser usadas para ampliar a disseminação de notícias falsas e desinformação nas redes.

2. Internet passa a ter a mesma regulação que jornal, rádio e televisão

Redes sociais, ferramentas de busca e aplicativos de mensagem passam a ser veículos de comunicação social (art. 2ª §2º)

Em redação inédita, o PL2630 passa a tratar redes sociais, ferramentas de busca e aplicativos de mensagem como veículos de comunicação social, tal qual o jornal, o rádio e a televisão. A medida pretende viabilizar a aplicação do artigo 22 da Lei Complementar 64/90 — que sanciona o candidato ou partido que usar indevidamente meio de comunicação social — também para os casos de abusos das plataformas online. O TSE já vem decidindo assim.

Acontece que a redação do PL2630 não se restringe à hipótese de abuso de meio de comunicação social. Ao contrário, a redação do art. 2º afirma que: “para os fins desta lei, todas as pessoas jurídicas referidas no caput serão consideradas meios de comunicação social”.

O que isso significa na prática? Redes sociais, ferramentas de busca e aplicativos de mensagem poderiam passar a responder como se fossem editores de jornal ou programadores de rádio e TV pelo conteúdo publicado em suas plataformas. Essa mudança desconsidera a diferença lapidar entre uma televisão que escolhe a sua programação e uma rede social que viabiliza a publicação de conteúdo de terceiros.

Vale questionar se mais alguma limitação que a Constituição impõe para empresas de jornalismo ou de radiodifusão poderia também ser estendida às redes sociais, como propriedade privativa de brasileiros, restrições sobre capital votante ser de brasileiros e etc. Parece improvável, mas dada a redação genérica do PL2630, ninguém pode afirmar ao certo qual o impacto dessa radical mudança regulatória.

A medida ainda atrai a atuação das empresas para a competência do Conselho de Comunicação Social, do Senado Federal.

A norma alcançaria seu objetivo de refletir a jurisprudência do TSE, e não criaria maiores incertezas regulatórias, se adotasse uma redação mais direta, como: “§ 2º Aplica-se o art. 22 da Lei Complementar nº 64, de 18 de maio, de 1990, aos usos indevidos dos serviços prestados pelos provedores referidos no caput durante o período eleitoral.” Ou ainda: “2º A utilização indevida dos serviços dos provedores referidos no caput em período eleitoral será considerada infração nos termos do art. 22 da Lei Complementar nº 64, de 18 de maio, de 1990”

3. Provedores deverão remunerar veículos de imprensa pela utilização de conteúdo jornalístico.

Critérios, aferição de valores, negociações e resolução de conflitos ficam para regulamentação posterior (art. 38)

A remuneração de veículos de imprensa pelo uso de conteúdo jornalístico em provedores de redes sociais e em ferramentas de busca tem sido objeto de regulações pelo mundo afora, com diferentes resultados. A discussão é complexa e transcende o escopo de um projeto de lei originalmente destinado ao combate da desinformação.

Existe não só o risco de os provedores passarem a remunerar apenas um punhado de grandes grupos de mídia, aumentando a concentração no setor, como também existem incertezas sobre quais conteúdos serão reputados como jornalísticos para fins de remuneração. A iniciativa australiana já demonstrou como a remuneração pretendida pode não chegar na ponta do jornalismo local e independente.

A depender dos resultados desse debate, os provedores poderão ser obrigados a remunerar veículos que se valem de uma roupagem jornalística para espalhar notícias falsas e desinformação. Nesse sentido, vale destacar que o PL prevê pagamento para “pessoa jurídica, mesmo individual”, ampliando o alcance da norma. Afinal de contas, quem vai decidir o que é conteúdo jornalístico?

4. Prova Bate e Volta: políticos ganham procedimento expresso para voltar ao ar quando tiverem contas ou conteúdos excluídos

Privilégio vale do Presidente aos vereadores e secretários municipais (art. 22 §2º)

O PL2630 cria uma série de regras para contas de autoridades (que reconhece como “contas de interesse público”). Essas contas não podem ter monetização de publicidade e nem bloquear outros usuários da plataforma. Mas elas contam também com um procedimento expresso para voltar ao ar quando forem suspensas ou tiverem qualquer conteúdo removido pelos provedores.

O projeto determina que essas contas podem acionar o Judiciário em caso de “intervenção ativa ilícita ou abusiva” por parte das plataformas, devendo o juiz ordenar a restauração célere da conta ou do conteúdo. Essa medida parece querer evitar o cenário ocorrido nos Estados Unidos com o banimento do ex-presidente Donald Trump de todas as principais redes sociais.

Esse privilégio passaria a valer do Presidente da República aos secretários municipais, que podem vir a ocupar o cargo de maneira muito transitória. Com 5.570 municípios será difícil controlar quem tem direito à blindagem conferida pelo PL.

5. Regras sobre perfilhamento podem afetar o mercado de publicidade

Obrigação de informar critérios que fizeram com que você visse conteúdos e anúncios pode revelar segredos de negócio para concorrentes (art. 18)

O que faz uma peça publicitária ser bem sucedida? No tempo das redes sociais um dos elementos de sucesso pode ser a seleção de direcionamento do anúncio, fazendo com que a mensagem publicitária chegue exatamente ao seu público alvo.

O artigo 18 do PL2630 pode acabar com esse mistério, já que ele vai exigir que as empresas de rede social e de aplicativos de mensagem informem todos os conteúdos impulsionados e publicidades com as quais o usuário teve contato nos últimos 6 (seis) meses, “detalhando informações a respeito dos critérios e procedimentos utilizados para perfilhamento que foram aplicados em cada caso.”

Essa medida certamente vai afetar o mercado de publicidade digital, forçando o compartilhamento de estratégias de direcionamento de público entre empresas concorrentes.

6. Moderação de conteúdo ganha um mini Código de Processo Civil

Empresas terão regras de processo para moderar conteúdo, com direito de resposta e informação sobre o perfil de quem modera (art. 15)

A construção de regras procedimentais para a moderação de conteúdo é uma tendência global. O PL2630 traz regras sobre notificação ao usuário sobre conteúdos e contas moderadas, além de dispor sobre pedidos de revisão dessas decisões.

O PL inova ao exigir que as empresas informem semestralmente as “características gerais das equipes envolvidas na aplicação de termos e políticas de uso em relação a conteúdos gerados por terceiros, incluindo número de pessoas envolvidas na atividade, modelo de contratação, bem como estatísticas sobre seu idioma de trabalho, qualificação, indicativos de diversidade atributos demográficos e nacionalidade.”

7. Comitê Gestor da Internet vira fiscal da moderação de conteúdo

CGI passa a poder exigir que empresas expliquem como e porque excluíram conteúdos ou contas (art. 33, V)

O Comitê Gestor da Internet (CGI.br) ganha diversas novas competências com o PL2630, como a formulação de diretrizes para elaboração e a validação de Códigos de Conduta para os provedores de redes sociais, ferramentas de busca e aplicativos de mensagem. Ao CGI também caberá avaliar os relatórios de transparência semestrais produzidos pelos provedores.

Vale destacar que o CGI passaria também a poder requerer diretamente aos provedores informações sobre metodologias de moderação de conteúdo, procurando esclarecer como e porque contas e conteúdos foram excluídos, desindexados ou sinalizados como falso ou enganoso, por exemplo. O objetivo dessa competência seria para “identificar vieses e produzir políticas públicas para garantir a liberdade de expressão”, ressalvado segredo comercial e industrial.

8. Provedores vão entregar o ouro para o bandido ao informar sobre moderação de conteúdo automatizada

PL prevê que empresas descrevam as ferramentas de inteligência artificial usadas para reconhecer conteúdos ilícitos (art. 9º, §1º, VIII; art. 10, §1º, IX) e informem “critérios e procedimentos utilizados” na moderação automatizada (art. 15, I, d).

Em versões anteriores do PL se ordenava que as empresas informassem como as suas ferramentas de inteligência artificial para a detecção de conteúdos ilícitos eram treinadas. Na versão atual ficou a obrigação dos provedores em descrever os tipos de ferramentas automatizadas empregadas na moderação de conteúdo e de contas. Devem ainda as empresas, em relatórios de transparência semestrais, informar a taxa de detecção ativa de conteúdos identificados para remoção, discriminando por tipo de conteúdo.

Aqui a fronteira entre a transparência e a divulgação de informações que favorecem a prática de atores mal-intencionados é fina. A depender de como essas informações vierem a público elas podem tornar mais fácil a identificação de pontos fortes e fracos na moderação de conteúdo automatizada em diferentes plataformas, servindo assim de guia para quem quiser explorar essas vulnerabilidades.

Mas a situação se agrava no artigo 15, que ordena, em casos de moderação de conteúdo exclusivamente automatizada, que as empresas informem ao usuário que teve o conteúdo ou conta afetada as “informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão”. Golpistas e piratas de toda espécie vão adorar receber essas explicações.

9. PL ordena mudanças no design de aplicativos de mensagem, restringindo inclusão em grupos e encaminhamento (art. 12)

A seção dedicada aos aplicativos de mensagem instantânea traz algumas intervenções do PL2630 no design das plataformas. O artigo 12 determina que esses provedores “devem projetar suas plataformas para manter a natureza interpessoal do serviço e limitar a distribuição massiva de conteúdos e mídias”.

As empresas devem também “desabilitar, por padrão, a autorização para inclusão em grupos e em listas de transmissão” e “instituir mecanismo para aferir consentimento prévio do usuário para inclusão em grupos de mensagens, listas de transmissão ou mecanismos equivalentes de agrupamentos de usuários.”

10. PL dá para terraplanistas e disseminadores de desinformação a defesa de que todos têm direito à “uma visão de mundo pessoal”

PL tem como princípio a livre formação de preferências e de “uma visão de mundo pessoal” (art. 3º, III)

O projeto de lei que nasceu para combater a desinformação traz como princípio o “respeito ao usuário em sua livre formação de preferências políticas e religiosas e de uma visão de mundo pessoal.” Essa redação, por mais que seja bem intencionada, acaba dando um salvo-conduto justamente para os que espalham desinformação sobre temas diversos, como tratamento ineficazes contra a Covid-19, sob o pretexto de que estariam apenas manifestando uma “visão de mundo pessoal”.

Se esse texto prevalecer será ainda mais difícil responsabilizar judicialmente aqueles que se valem da rede para espalhar desinformação.

Fase bônus: O PL2630 se aplica a provedores de redes sociais, ferramentas de busca e de mensageria instantânea que ofertem serviços ao público brasileiro e cujo número de usuários registrados no país seja superior a 10.000.000 (dez milhões). O seu alvo são as grandes empresas nesses três segmentos.

Mas vale lembrar que a Internet é maior do que redes sociais, ferramentas de busca e aplicativos de mensagem. Diversos outros tipos de provedores ficaram de fora das regras sobre transparência algorítmica e moderação de conteúdo. O PL2630 diverge assim do Marco Civil da Internet, que procurou traçar regras gerais para provedores de conexão e de aplicações como um todo.

Os pontos de atenção trazidos acima podem servir de guia para os futuros debates buscando o aperfeiçoamento da proposta legislativa.

--

--

O Instituto de Tecnologia e Sociedade do Rio estuda o impacto e o futuro da tecnologia no Brasil e no mundo. — www.itsrio.org