O ministro André Mendonça, do STF (Supremo Tribunal Federal), votou nesta quinta-feira (5) para manter a responsabilização das plataformas digitais por conteúdos de usuários apenas após decisão judicial.
Com isso, ele é o primeiro a se posicionar no julgamento a favor das regras atuais, em alinhamento à posição das big techs. Os outros três votos defenderam a atribuição de mais obrigações às empresas.
Mendonça ressaltou o trabalho já feito pelas plataformas na tarefa de moderação de conteúdo com base nos seus termos de uso.
A base do argumento do magistrado é a preocupação em resguardar a liberdade de expressão. “O cidadão, mais vigiado, mais ficará suscetível ao chamado efeito silenciador”, disse.
Outro ponto presente em seu voto foi a diferenciação entre as várias categorias de provedores e a exclusão das aplicações de comunicações privadas da discussão.
A manifestação do ministro foi concluída depois de duas sessões dedicadas à leitura do voto, iniciada na quarta (4).
O julgamento estava suspenso desde dezembro do ano passado, por pedido de vista —mais tempo para análise— de Mendonça. Até então, três votos haviam sido dados, dos relatores dos dois recursos em julgamento, Dias Toffoli e Luiz Fux, e do presidente Luís Roberto Barroso.
Toffoli e Fux se posicionaram pela derrubada do artigo 19 do Marco Civil da Internet, que prevê a responsabilização das plataformas por conteúdos de terceiros só após decisão judicial, e defenderam que empresas devem agir ao serem notificadas por usuários ou mesmo antes em alguns casos.
Já Barroso defendeu que a regra seja declarada apenas parcialmente inconstitucional para permitir a responsabilização das empresas se já tiver havido notificação de alguma violação legal. Em casos de possíveis crimes contra a honra, ele defendeu que a decisão deve continuar cabendo ao Judiciário.
Mendonça, por sua vez, além de defender a constitucionalidade do artigo 19 do Marco Civil nesta quinta, afirmou que a remoção de contas das redes sociais caracteriza censura prévia.
A medida tem sido adotada nos últimos anos principalmente pelo ministro Alexandre de Moraes, contra bolsonaristas acusados de atacar a integridade do sistema eleitoral ou mesmo promover atos antidemocráticos
“Ao suspender o perfil de determinado usuário ou o acesso aos serviços de toda uma plataforma digital em razão da produção sistemática de desinformação, por exemplo, busca-se impedir a veiculação de novas manifestações ante o risco de se consubstanciarem em novas transgressões ao ordenamento jurídico”, afirmou Mendonça nesta quinta.
“Dito de forma direta: para evitar nova manifestação que possa configurar um ilícito, tolhe-se a possibilidade de qualquer manifestação”, disse o ministro.
Outra questão levantada por ele é a da possibilidade de erros de moderação. Isso porque haveria o risco de que o consumidor tivesse o o seu conteúdo retirado indevidamente, o que prejudicaria o exercício da liberdade de expressão, assim como potencialmente suprimiria o direito à informação de interesse público, segundo argumentou.
“Exemplos de erros de moderação trazidos pelo Idec [Instituto de Defesa do Consumidor] bem ilustram as dificuldades experimentadas pelo algoritmo para promover a remoção. Verificou-se a retirada de vídeo sobre o autoexame para evitar ou identificar câncer de mama. Ou de uma poetisa, Rupi Kaur, sobre menstruação. Ou ainda de jargões da linguagem LGBT vista fora de contexto como desrespeitosos, falhando no reconhecimento de seu valor social”, disse.
Mendonça também afirmou que as plataformas devem ser capazes de identificar se determinado conteúdo foi objeto de impulsionamento e, em caso positivo, se essa amplificação foi patrocinada pelo usuário ou se partiu de iniciativa direta da própria plataforma.
Ele defendeu a possibilidade de as plataformas limitarem o alcance de determinadas publicações “mediante checagem de fatos e calibragem de algoritmos”, assim como de coibirem a utilização de contas não autênticas ou automatizadas “para práticas nocivas”.
“Ainda, impedir a monetização ou impulsionamento de contas utilizadas para fins de prática de condutas ilícitas, também promover varreduras para eliminação de contas não autênticas ou bots empregados para práticas ilícitas”, disse.
No início do voto, o magistrado defendeu que a liberdade de expressão é indispensável para a defesa das demais liberdades e dos demais direitos fundamentais e, por esse motivo, deve ter posição preferencial entre os direitos dos cidadãos.
Ainda assim, o ministro afirma destaca que a legislação precisa ser aprimorada.
“Estou preservando a essência do artigo 19. Não estou dizendo que é o melhor remédio. Aliás, eu proponho uma autorregulação regulada, onde tenha maiores mecanismos para depois auferir essa responsabilidade”, disse.
De acordo com essa ideia, as plataformas podem elaborar um plano normativo próprio, e o Estado seria um supervisor.
“A abordagem proposta guarda maior consonância com as tentativas de promover a autorresponsabilidade das pessoas jurídicas, a partir do sancionamento de condutas que lhes possam ser diretamente imputadas”, afirmou o ministro.
Na tese proposta por ele, os aplicativos de mensagens ficariam de fora do regramento, e as plataformas teriam o dever de identificar o usuário violador de direito de terceiro e este é quem deveria ser responsabilizado.
Nos casos de remoção de conteúdo sem ordem judicial, seria preciso seguir protocolos para garantir ao usuário acessar as motivações da decisão, além de assegurar a possibilidade de recurso e que a exclusão seja feita por humano, dentre outros aspectos.
Além disso, o ministro defendeu que a decisão judicial que determinar remoção de conteúdo deverá também apresentar fundamental para tal medida.