STF remarca julgamento relativo às redes em meio a debate sobre regulação
O Supremo Tribunal Federal (STF) adiou para a segunda quinzena de junho a análise de um conjunto de ações sobre moderação e responsabilidade das empresas de tecnologia em relação a conteúdos publicados nas redes sociais. O adiamento foi solicitado pelos relatores das ações em pauta e a nova data da sessão ainda não foi definida.
O agendamento do julgamento — que seria nesta quarta-feira (17) — acontece em meio a um cenário marcado pelo apoio de boa parte da sociedade e do governo à regulação das plataformas, ao mesmo tempo em que as big techs e bolsonaristas pressionam a Câmara contra a aprovação do Projeto de Lei 2630, conhecido como PL das Fake News.
Uma das ações a serem julgadas, sob relatoria do ministro Dias Toffoli, é um recurso extraordinário da Meta, proprietária do Facebook e do Instagram, que questiona a constitucionalidade do artigo 19 do Marco Civil da Internet.
Outra ação, relatada pelo ministro Luiz Fux, diz respeito a recurso do Google sobre a obrigação de o provedor fiscalizar o conteúdo publicado em seus domínios eletrônicos e de retirar do ar informações consideradas ofensivas, sem necessidade de intervenção do Poder Judiciário.
Além disso, será retomado o julgamento de ação, com relatoria da presidenta do STF, ministra Rosa Weber, relativa à suspensão, por ordem judicial, de aplicativos de mensagens que se neguem a fornecer à autoridade mensagens trocadas por usuários sob investigação criminal.
Parte das questões a serem julgadas pelo Supremo diz respeito a aspectos contidos no PL 2630 e convergem para a necessidade de regular as redes sociais, assunto que tem amplo apoio da população. Pesquisa realizada pela Atlas Intel e divulgada no final de abril revelou que 78% dos brasileiros defendem que sejam estabelecidas regras para o funcionamento das redes.
Marco Civil e responsabilidade
No centro do julgamento está a constitucionalidade do Marco Civil da Internet e mais especificamente o seu artigo 19 que estabelece: “o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente”.
“Eu estou convencido de que o regime de responsabilidade nos termos que está no Marco Civil da Internet é insuficiente”, disse o relator do PL 2630 na Câmara, deputado Orlando Silva (PCdoB-SP), em debate sobre o tema no podcast Inteligência Ltda., ocorrido na sexta-feira (12). Para ele, o Congresso não deve se omitir do debate, de maneira que o tema possa ser definido pelos legisladores e não pelo judiciário.
O parlamentar defende que “se a plataforma digital ganha dinheiro, ela tem que ser corresponsável e tem que ser responsabilizada. Há a necessidade de criação de instrumentos para fiscalizar o cumprimento da lei, aplicar sanções administrativas e isso está previsto na proposta, além de uma série de obrigações de transparência”.
Em avaliação feita durante debate sobre o tema realizado pela USP nesta segunda-feira (15), Renata Mielli, coordenadora do Comitê Gestor da Internet, explicou que a luta do CGI “é pela manutenção do regime de responsabilidade do artigo 19” — ou seja, é contrária à inconstitucionalidade do artigo que pode decorrer do julgamento .
Para ela, o dispositivo legal não impossibilita as redes de moderarem conteúdo. “O artigo 19 não impede as plataformas de fazer nada; só diz a partir de que situação elas passam a ser responsáveis solidárias por determinados conteúdos, mas não impede, tanto é que elas já fazem moderação de uma série de conteúdos a partir dos termos e políticas próprias delas. E muito menos é verdade que mudar o regime de responsabilidade que hoje está no artigo 19 vai melhorar a qualidade da informação que circula no âmbito dessas plataformas”.
Ao mesmo tempo, salientou, o comitê aprovou nota em apoio às mudanças propostas ao regime de responsabilidade previstas no PL 2630. Dentre elas, Renata destaca a questão do impulsionamento monetizado. “Quando você paga para um conteúdo viralizar, chegar mais longe, eu acho que é bem justo que a plataforma seja responsável solidária por aquele conteúdo, afinal de contas, ela está recebendo recursos para fazer com que aquele conteúdo seja entregue para mais gente. Então, somos favoráveis a esse tipo de modulação”.
Ela aponta ainda outro mecanismo previsto no PL relativo ao dever de cuidado. Renata defende, neste sentido, a necessidade de investimento em recursos para a melhoria dos sistemas das redes e a contratação de pessoal no Brasil, entre outros aspectos. “As redes precisam investir de forma sistêmica para criar mecanismos de prevenção e identificação de conteúdos ilegais no Brasil. Elas não fazem isso porque ganham dinheiro com os conteúdos de desinformação, de ódio e ilegais”.
O custo para adequar as redes a essas necessidades, diz a coordenadora do CGI, “não interessa às plataformas mas, principalmente, elas não querem resolver ou melhorar o seu sistema para tornar o ambiente comunicacional mais saudável porque o negócio delas não é melhorar o ambiente comunicacional; o negócio delas é a economia da atenção, a monetização a partir da coleta de dados e uma série de outras coisas”.
Para Renata, “a liberdade de expressão tem limites e precisamos definir, enquanto sociedade, quais os limites nós vamos pactuar para o exercício dessa liberdade na perspectiva da proteção da democracia”.