O Projeto de Lei nº 2.630/2020, conhecido como o PL das Fake News já era alvo de acalorados debates desde sua proposição. Agora, diante de sua iminente votação, os debates aqueceram-se ainda mais, como vemos pela manifestação do Google, que colocou em sua página inicial um link com sua posição sobre o projeto, o que gerou uma reação do STF e do CADE

Para entender melhor o que está em jogo, é preciso considerar alguns fatores como: (i) as emendas e a nova redação do PL; (ii) a Portaria nº 351/2023, do Ministério da Justiça e Segurança Pública do Brasil (MJSP); (iii) o Julgamento do Supremo Tribunal Federal dos Temas 987 e 533 da Repercussão Geral; (iv) os ataques às escolas; (v) o Digital Services Act; (vi) o caso Gonzalez v. Google que será julgado pela Suprema Corte dos Estados Unidos; entre outros.

De início adianta-se a conclusão deste texto: assim como muitos já disseram, o mais importante é aprofundar a maturidade do debate – e é apenas a isso que este texto se propõe. 

Um dos principais pontos do PL 2.630/2020 refere-se à responsabilização das plataformas e redes sociais sobre conteúdo de terceiros. Atualmente, a responsabilização civil das plataformas por eventuais danos gerados pelo conteúdo de terceiro origina-se apenas quando a plataforma não atender à ordem judicial que comandar a remoção do mesmo – artigo 19, do Marco Civil da Internet.

Este mencionado artigo terá sua constitucionalidade verificada pelo julgamento do Tema 987, pelo Supremo Tribunal Federal, que promoveu audiência pública em março deste ano e aguarda julgamento. Por sua vez, o Tema 533 discute o dever de empresa hospedeira de sítio na internet fiscalizar o conteúdo publicado e retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário. 

Logo, estes julgamentos do Supremo Tribunal Federal irão expor o entendimento do Poder Judiciário acerca da responsabilização das plataformas de acordo com a legislação vigente – o que por si só atrai um debate intenso. 

A norma vigente é muito semelhante à da Seção 230 do Communication Decency Act (DCA), adotada em 1996 nos Estados Unidos, que prevê que sites e outros serviços online não são responsáveis pelo conteúdo de terceiros. Contudo, a Suprema Corte Estadunidense irá julgar o caso Gonzalez v. Google, em que visa-se a análise da responsabilização das plataformas digitais e a política de algoritmos e da recomendação automática de conteúdos com base no perfilamento de usuários. 

Contudo, a atual redação do PL 2.630/2020 altera a regra vigente cuja constitucionalidade será analisada. Esta proposta cria diversas obrigações às plataformas, como analisar diligentemente os riscos sistêmicos e seus serviços, incluindo-se os sistemas algorítmicos (o que abrange a difusão de conteúdos ilícitos ¹) e adotar medidas de atenuação desses riscos – aqui notamos relação com o caso Gonzalez v. Google, em razão do risco decorrente da recomendação de conteúdo.  

Ainda, a proposta prevê a obrigação de que as plataformas criem mecanismos que permitam a qualquer usuário notificá-los da presença, em seus serviços, de conteúdo potencialmente ilegais. Uma regra equivalente é encontrada no europeu Digital Services Act, que atribui às plataformas a responsabilidade pela criação de flags que permitam aos usuários apontar conteúdos potencialmente ilícitos. 

O Digital Services Act ainda não está em pleno vigor, porém vale analisar a experiência alemã, onde está em vigor o Network Enforcement Act (locamente conhecido como NetzDG), que obriga plataformas a responderem a sinalizações dos usuários sobre conteúdos ilícitos, os quais deverão ser removidos caso confirme-se a ilicitude. O Federal Office of Justice alemão anunciou no início do mês de abril de 2023 a intauração de procedimento investigatório contra o Twitter por violação à tal regra, o que pode implicar à plataforma uma multa milionária. 

No PL 2.630/2020, as plataformas podem ser responsabilizadas civilmente caso tenham tomado ciência da potencial ilicitude através da sinalização dos usuários e não tenham removido o conteúdo.

Apesar da proposta do projeto de lei aproximar-se à normativa europeia e, quem sabe, ao futuro entendimento da Suprema Corte dos Estados Unidos, certo é que existem pontos que não conferem, pelo menos neste momento, segurança jurídica aos players, ao passo que inexiste a previsão de uma entidade reguladora responsável pelo enforcement da lei (o que existia em versões anteriores da propostas), bem como encontram-se muitos pontos pendentes de regulamentação, como os protocolos de segurança em caso de risco iminente de danos.

Apesar de ainda caber muito aprofundamento, vale a pena pincelar outros pontos de interesse, como as declarações do Google de que não poderiam remover fake news compartilhadas sob a forma de conteúdos jornalísticos e, pior, teria de remunerar tais veículos.

Ocorre que o artigo 32, § 6º, do PL 2.630/2020, que dispõe sobre a impossibilidade de remoção de conteúdos jornalísticos, trata de remoções que objetivam evitar a remuneração às empresas jornalísticas, bem como excetua os casos previstos na lei, ou seja, em que haja conteúdo ilícito, conforme classificado pela proposta. Portanto, tal preocupação parece passível de acalentação.

Vale, ainda, observar como tem sido a experiência australiana, cuja recente legislação é precursora em matéria de remuneração de empresas jornalísticas por conteúdos compartilhados em redes sociais, O Tesouro Australiano publicou em dezembro de 2022 um report em que considerou um sucesso a norma, que resultou em mais de 30 acordos de compensação.

Nota-se que o projeto de lei não é uma aberração jurídica, pelo contrário, possui dispositivos relevantes e que alinham-se com tendências regulatórias internacionais. Porém, o trâmite de aprovação legislativa parece não estar se atentando a casos concretos que já nos oferecem parâmetros, no que parece ser uma ausência de gestão de riscos legislativos.

Veja-se: o Facebook, em audiência pública no Supremo Tribunal de Justiça, por seu advogado Rodrigo Ruf, informou  que na época do primeiro turno das eleições presidenciais de 2022, a Meta removeu mais de 3 milhões de conteúdos, no Facebook e Instagram, pior violação às políticas que vedam conteúdo violento, de incitação à violência e discursos de ódio. 

Por outro lado, como citado, mesmo com o sistema de sinalização de conteúdo ilícito, o Twitter está sofrendo um procedimento investigativo por não ter procedido à remoção de tais conteúdos. 

Logo, nota-se que a ausência de ferramentas satisfatórias de enforcement podem gerar confusão e insegurança jurídica em um cenário em que a regra atual fornece meios de alcançar-se, pelo menos na maioria dos casos, o objetivo da nova proposta regulatória.

Parece-nos que para o aproveitamento dos melhores pontos da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, que pretende ser instituída pela aprovação do PL 2.630/2020, seus pontos mais controversos deveriam ser melhor discutidos de modo a provocar uma consolidação da redação após o amadurecimento da matéria, sob pena de que uma legislação bem intencionada comprometa normas jurídicas gerais – artigo 19, do Marco Civil da Internet – que viabilizam o alcance do mesmo objetivo.

¹ Os conteúdos ilícitos são elencados na proposta e incluem crimes contra o Estado Democrático de Direito; atos de terrorismo; induzimento, instigação ou auxílio a suicídio ou a automutilação; crimes contra crianças e adolescentes; racismo; violência contra a mulher; e infrações sanitárias.

Nossos Profissionais:

ㅤㅤSócio Gestor

Artigo produzido para: