AGU pede ao STF ação imediata contra redes por fraudes e violência

A Advocacia-Geral da União (AGU) pediu ao Supremo Tribunal Federal (STF), nesta segunda-feira (26), que sejam aplicadas, imediatamente, medidas judiciais contra as redes sociais devido à omissão em casos relativos à disseminação de desinformação, fraudes e violência digital.
Segundo informou a AGU, o requerimento busca garantir que as medidas sejam tomadas no âmbito dos recursos extraordinários que discutem atualmente, no STF, a responsabilidade civil das plataformas de internet por conteúdos ilícitos publicados por terceiros.
A AGU se refere à apreciação, pela Corte, da constitucionalidade do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014) que, atualmente, exige ordem judicial prévia e específica de exclusão de conteúdo para a responsabilização de provedores, sites e gestores de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros.
A tese defendida pela AGU — e, em grande parte, refletida no voto do ministro Dias Toffoli, relator de um dos recursos no STF —, propõe que plataformas que impulsionam, moderam ou recomendam conteúdo ilícito devem ser responsabilizadas, independentemente de notificação judicial.
O pedido da AGU tem como base dados recentes que demonstram graves riscos à integridade de políticas públicas, à segurança digital da população — em especial idosos, crianças e adolescentes — e ao Estado Democrático de Direito.
Anúncios fraudulentos e perigosos
Um dos casos citados na petição diz respeito à divulgação de anúncios fraudulentos nas plataformas da Meta — que administra do Facebook, o Instagram e o WhatsApp —, relacionadas às fraudes ocorridas no INSS. Os conteúdos apontados prometem ressarcir em até R$ 15 mil os valores cobrados ilegalmente de aposentados e pensionistas.
Segundo levantamento da AGU, “a Biblioteca de Anúncio da Meta reúne mais de 300 anúncios com falsa promessa de indenização de valores do INSS, sendo que várias das fraudes estavam ancoradas em imagens manipuladas de figuras públicas”.
O documento lista, ainda, outros anúncios fraudulentos envolvendo o medicamento Mounjaro e aponta a necessidade de que o STF se dedique a analisar o uso de inteligência artificial para esses e outros tipos de golpe e desinformação.
A peça da AGU diz: “é importante registrar que conteúdos ilícitos publicados, difundidos e monetizamos pelos provedores de aplicação não resultam apenas em prejuízos patrimoniais, mas afetam, também, a saúde física e mental de crianças e adolescentes”.
Nesse ponto, cita o “desafio do desodorante”, que teve no TikTok e Kwai dois de seus principais disseminadores, e que já levou à morte de duas crianças no Distrito Federal e em Belo Horizonte, em 2024 e 2022, respectivamente.
A AGU alerta para o cenário de risco exemplificado nesses casos no que diz respeito à “correta implementação de políticas públicas governamentais, bem como à credibilidade institucional da administração pública como um todo”; ao “patrimônio de milhões de brasileiros, em especial os mais economicamente vulneráveis, os quais estão expostos a golpes e conteúdos fraudulentos patrocinados por intermédio dos provedores (…)” e, por fim, à questão da segurança e bem-estar de crianças e adolescentes “desprotegidos frente a conteúdos nocivos amplamente publicados”.
Conduta omissiva
O pedido ainda argumenta que “o perigo de dano ou risco ao resultado útil do processo está representado no fato de que, enquanto se aguarda o desfecho do presente julgamento, milhares de conteúdos fraudulentos são publicados diariamente”, sem que haja “mecanismo hábil para efetivamente responsabilizar as plataformas quando beneficiárias nesse cenário”.
E reforça que as situações relatadas “expõem a continuada conduta omissiva dos provedores” em “remover e fiscalizar de forma efetiva os mencionados conteúdos, em desrespeito aos referidos deveres de prevenção, precaução e segurança”.
A AGU também propõe dez eixos de deveres impostos às plataformas, incluindo a criação de mecanismos para autenticação de contas, regras claras de moderação de conteúdo, relatórios semestrais de transparência e canais eficazes de denúncia.
Além disso, defende que as plataformas devem responder civil e objetivamente quando envolvidas no impulsionamento, moderação ou recomendação de conteúdos ilegais. E também podem ser responsabilizadas por permitir a atuação de perfis falsos ou automatizados, e devem ser responsabilizadas solidariamente com os anunciantes em casos de fraudes, racismo, violência contra mulheres e crianças, incitação ao suicídio, uso indevido de IA e desinformação eleitoral.