
Por Tarso Cabral Violin
Ontem participei de mesa do XXVI Congresso Paranaense de Direito Administrativo realizado pelo Instituto Paranaense de Direito Administrativo (IPDA), em homenagem ao advogado Renato Andrade.
A mesa foi sobre Democracia Digital: como regular as mídias sociais?, mediada por David Musso e com os juristas Ana Carolina Camargo Clève, Daniel Wunder Hachem, Emerson Gabardo, Fernando de Brito Alves, José Sérgio da Silva Cristóvam e Tarso Cabral Violin. As duas perguntas que eu respondi foram as seguintes:
Tramita no Congresso Nacional o Projeto de Lei das Fake News (PL 2630/2020), que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Os arts. 6º e 12 do PL autorizam que plataformas digitais removam ou bloqueiem conteúdos e contas de forma prévia, assegurando o direito ao devido processo e ao recurso. Contudo, admitem a dispensa da notificação prévia ao usuário em algumas hipóteses genéricas, como “risco de dano imediato” ou “comprometimento da usabilidade” (art. 12, § 2º). Essa autorização legal pode ser considerada como uma forma disfarçada de censura prévia, vedada pelos arts. 5º, IX, e 220 da Constituição Federal?A moderação prévia de conteúdo pela plataforma é compatível com a jurisprudência do STF que reconhece o caráter preferencial da liberdade de expressão (ADI 4451 e ADI 4815)?
Vou responder estas perguntas de trás para frente. Primeiro, entendo que a moderação de conteúdo a ser realizada pelas plataformas digitais não será prévia. Inicialmente o conteúdo será publicado, para após ser moderado. E a regra será a moderação após notificação e cumprimento do devido processo legal e contraditório e ampla defesa. Excepcionalmente é que ocorrerá a moderação do conteúdo já publicado mesmo sem notificação prévia, e isso é totalmente condizente com o ordenamento jurídico brasileiro.
Sim, o Supremo Tribunal Federal já deixou claro o caráter preferencial pela liberdade de expressão. Mas a liberdade de expressão em todos os seus ângulos, que são o direito de falar, de buscar e de receber informações. A liberdade de expressão já era prevista na Declaração dos Direitos do Homem e do Cidadão (1789) e Declaração Universal dos Direitos Humanos (1948). Mas o Pacto Internacional sobre os Direitos Civis e Políticos (1966), prevê que “Toda a pessoa tem direito à liberdade de expressão; este direito compreende a liberdade de procurar, receber e divulgar informações e ideias”, mas que isso “implica deveres e responsabilidades especiais. Por conseguinte, pode estar sujeito a certas restrições, expressamente previstas na lei, e que sejam necessárias para: a) Assegurar o respeito pelos direitos e a reputação de outrem; b) A proteção da segurança nacional, a ordem pública ou a saúde ou a moral públicas” (art. 19); e que “toda a propaganda a favor da guerra estará proibida por lei. Toda a apologia ao ódio nacional, racial ou religioso que constitua incitação à discriminação, à hostilidade ou à violência estará proibida por lei”.
Hoje existe o que chamamos de constitucionalismo digital, inclusive com várias declarações de direitos da internet. Gosto muito dos “Princípios de Santa Clara sobre Transparência e Accountability em Moderação de Conteúdo”, de um grupo de dezenas organizações internacionais de direitos humanos. Já está pacificado nesses princípios a necessidade de moderação de conteúdo pelas plataformas, desde que assegurados e devido processo e que:
1. Só haja moderação automatizada se houver confiança suficientemente elevada na qualidade e precisão desses processos;
2. Regras claras e compreensíveis, inclusive com relação à língua.
3. Moderação e apelação que entenda o idioma, cultura e contexto político e social
4. Plataformas devem informar usuários se Estados se envolverem na moderação.
5. Notificação como regra, mas pode exceção. Exemplo: quando o conteúdo equivale a spam, phishing ou malware, deve ser claramente estabelecido nas regras e políticas da empresa.
Por exemplo, é proibido que pessoas induzam ou incitem o nazismo, o fascismo, o racismo, a xenofobia. Isso é crime! A lei ainda é expressa ao prever que é crime veicular a suástica para fins de divulgação do nazismo, seja de forma individual ou em redes sociais ou eventos esportivos ou religiosos, e hoje já é possível que o Poder Judiciário faça a devida moderação (art. 20 da Lei 7.716/89 – crimes de preconceito de raça ou de cor).
A ideia é regulamentação que pressupõe a moderação do que pode ser vinculado, pois a checagem é fundamental. A moderação excepcional do conteúdo já publicado mesmo sem notificação prévia, ocorrerá, segundo o PL, apenas se verificarem risco de dano imediato de difícil reparação; para a segurança da informação ou do usuário; de violação a direitos de crianças e adolescentes; de crimes resultantes de preconceito de raça ou de cor; e de grave comprometimento da usabilidade, integridade ou estabilidade da aplicação.
Sugiro, ainda, a ampliação de casos expressos, como por exemplo discurso de ódio e divulgação de imagens íntimas sem autorização da vítima (pornografia de vingança).
E é claro que as big techs não querem a aprovação do PL das Fake News, pois hoje, pelo art. 19 do MCI, elas só serão responsabilizadas se, após ordem judicial, elas não tomarem providências. Hoje já há uma autorregulação pelas empresas, mas sem transparência, o que daí sim pode gerar riscos para os direitos fundamentais e para a Democracia.
O art. 30 do PL das Fake News prevê que os provedores de redes sociais poderão criar sua própria instituição de “autorregulação regulada”, certificada por um conselho instituído pelo Congresso Nacional e com competência para definir regras e adotar medidas sobre transparência e responsabilidade na internet. Essa autorização legal de criação de uma autorregulação geraria um espaço de decisão autônoma do provedor, infenso ao controle judicial de mérito, como ocorre com atos administrativos discricionários? Em outras palavras: o Poder Judiciário poderá adentrar no mérito das decisões sobre moderação e suspensão de contas e conteúdos e exercer controle sobre o conteúdo dessas decisões dos provedores, ou deverá se limitar ao controle dos procedimentos utilizados pela instituição de autorregulação?
Sim, o Poder Judiciário poderá adentrar no mérito das decisões sobre moderação e suspensão de contas e conteúdos e exercer controle sobre o conteúdo dessas decisões dos provedores, não se limitando ao controle dos procedimentos utilizados pela instituição de autorregulação.
Celso Antônio Bandeira de Mello é claro nesse sentido: “é precisamente em casos que comportam discrição administrativa que o socorro do Judiciário ganha foros de remédio mais valioso, mais ambicioso e mais necessário para os jurisdicionados, já que a pronúncia representa a garantia última para a contenção do administrador dentro dos limites de liberdade efetivamente conferidos pelo sistema normativo” (BANDEIRA DE MELLO, Celso Antônio. Curso de Direito Administrativo, 36ª ed. Belo Horizonter: Fórum, 2023, p. 887).
A autorização legal de criação de uma autorregulação não gera um espaço de decisão autônoma do provedor, infenso ao controle judicial de mérito. Note-se que mesmo nos atos administrativos discricionários, há possibilidade de controle jurisdicional, quando os atos forem ilegítimos contrários aos princípios. Quanto mais a atos de empresas privadas.
TARSO CABRAL VIOLIN é advogado, Pós-Doutor em Direito do Estado pela USP, Professor de Direito Administrativo da Universidade Mackenzie e autor, entre outros livros, do “Democratização dos Meios de Comunicação: Estado, Direito e Políticas Públicas” (baixe de graça aqui)