O Artigo 19 do Marco Civil é constitucional mas precisa de ajustes

Diante da proliferação de conteúdos de desinformação, cresce uma pressão para mudar este artigo do MCI, alterando o que se chama de regime de responsabilidade dos intermediários.

Foto: Canva

Nos dias 28 e 29 de março, o STF ouviu especialistas para discutir a constitucionalidade do artigo 19 do Marco Civil da Internet. O que diz esse artigo:

Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

Trazendo a aplicação do artigo para as plataformas de redes sociais e traduzindo do juridiquês:
1 – As plataformas de redes sociais só são responsabilizadas por conteúdos de seus usuários quando, mediante ordem judicial, não realizar a remoção daquele conteúdo.

2 – O artigo não impede que as plataformas realizem moderação de conteúdo com base em seus termos de uso, determinações judiciais e outras regras legais ou próprias.

Diante da proliferação de conteúdos de desinformação, discurso de ódio, antidemocráticos etc, e principalmente após o 08 de janeiro, cresce uma pressão para mudar este artigo do MCI, alterando o que se chama de regime de responsabilidade dos intermediários.

Uma das teses para sustentar a inconstitucionalidade é que as Plataformas de Redes Sociais deveriam estar submetidas ao mesmo regime de responsabilidade sobre conteúdos que as empresas de comunicação – Jornais, Revistas, Rádio, Televisão.

Nas empresas de comunicação existe uma hierarquia editorial, profissionais que individual ou coletivamente decidem quais acontecimentos serão escolhidos para se tornarem notícia e decidem a forma como ela será construída e publicada.

Em jornais, revistas, televisão e rádio os conteúdos são limitados pelo espaço físico ou temporal do jornal. Em situações nas quais o conteúdo publicado atenta contra algum direito, ou seja considerado ilegal, há todo um procedimento de responsabilização tanto do autor, quanto da empresa, e há possibilidade de direito de resposta e tudo isso ocorre posteriormente ao conteúdo ter-se tornado público.

No caso das plataformas de redes sociais não há hierarquia editorial (humana) sobre os conteúdos, que não são produzidos por profissionais ou articulistas convidados e que estão sob a responsabilidade da empresa. A produção é de todos os usuários e a curadoria – sim existe – dos conteúdos é feita por mecanismos automatizados, baseados na coleta de dados, em critérios de interação com outros usuários, por mecanismos de pagamento para impulsionar conteúdo, tudo gerido por sistemas algorítmicos.

As plataformas recebem milhões de conteúdos por dia, o que torna impossível uma gestão humana de monitoramento e moderação. Portanto a exclusão, rotulação e redução de alcance de conteúdos baseado em seus termos de uso, ou para atender às exceções previstas no artigo 19 do Marco Civil – pedofilia por exemplo – buscando impedir a circulação de mensagens consideradas como “proibidas” pela empresa ou ilegais, também são feitas de forma automatizada, por algoritmos cujos parâmetros para identificação de conteúdos “ilegais” não são transparentes.

Leia também: STF discute Marco Civil da Internet com ‘big techs’

As plataformas também realizam moderação a partir de ordem judicial e observando outras diretrizes estabelecidas em suas políticas próprias e em determinação legal.

Vale dizer que a moderação com base em termos de uso ou outras determinais legais feitas de forma automatizada geralmente excluem, rotulam ou reduzem o alcance do conteúdo minutos após à sua publicação. O que também é distinto do tipo de regulação que se dá em casos dos meios tradicionais de comunicação.

Posto esse breve resumo das diferenças, vemos que o senso comum que endossa a ideia de equiparar plataformas de redes sociais aos meios de comunicação social é equivocada, pois são modelos de negócios e tipo de serviços totalmente diferentes.

Primeiro, porque alterar o artigo 19 para gerar um novo regime no qual as Plataformas de Redes Sociais devem ser responsáveis pelos conteúdos de seus usuários, e achar que esse é o mecanismo regulatório que vai acabar com a circulação de conteúdos antidemocráticos, ou de desinformação, ou discurso de ódio é um equívoco.

A quantidade e a forma como esses conteúdos circulam possuem uma dinâmica multiplataforma, de retroalimentação inclusive com outros sistemas de comunicação – como emissoras de rádio, televisão, jornais, sites de internet. A sofisticação na linguagem e na produção estética burla cada vez mais os mecanismos automatizados. Além disso, a introdução de novas tecnologias, como a Inteligência Artificial, traz novos desafios para identificação de conteúdos infringentes, digamos.

Segundo, porque para buscar se livrar da responsabilidade civil – o que pode incluir multas elevadas e outras sanções – a tendência é que as plataformas adotem uma postura mais conservadora na moderação de conteúdos.

Assim, pode haver – e já há dados empíricos demonstrando isso em estudos de impacto de regulação em outros países – introdução de parâmetros mais abertos para excluir, rotular e restringir o alcance de uma quantidade maior de conteúdos, o que vai incluir nessa “baciada algorítmica” uma enorme soma de mensagens legítimas, trazendo impactos negativos para a liberdade de expressão.

Defender a Constitucionalidade do artigo 19 não significa, no entanto, dizer que este dispositivo não deve ser aperfeiçoado. Não faz sentido, por exemplo, que as plataformas não sejam responsáveis pelos conteúdos pagos, patrocinados, e que por isso têm alcance majorado. Esse me parece um ajuste correto a ser introduzido no regime de responsabilidade, e que não traz danos à liberdade de expressão.

Também pode-se prever outras modulações específicas no regime de responsabilidade, mediante situações concretas e conteúdos específicos e bem delimitados. Mas esse caminho precisa ser trilhado com uma discussão pública e no ambiente do poder legislativo, que é o espaço para realizarmos ajustes e aperfeiçoamentos do Marco Civil da Internet.

Durante a audiência pública, muitos foram os argumentos prós e contra a constitucionalidade deste dispositivo. Mais precisamente, de acordo com o monitoramento feito pelo ITS – 22 sustentações a favor da constitucionalidade, 17 neutras/interpretação conforme e 8 pela inconstitucionalidade.

Enquanto a Corte se reúne para discutir o tema, o Congresso Nacional deve também retomar o debate do PL 2630, de relatoria do deputado Orlando Silva. A sociedade não pode ficar alheia ao debate, que por mais que parece técnico, tem altas implicações políticas.

Para assistir à audiência pública do STF acesse:

Dia 28/03 – período da manhã – https://www.youtube.com/watch?v=AwTODpWW-3E

Dia 28/03 – período da tarde – https://www.youtube.com/watch?v=q-yd8DrGfXk

Dia 29/03 – período da manhã – https://www.youtube.com/watch?v=pEFJYIqflGs

___
Edição: Bárbara Luz

Autor