A votação está marcada para a próxima quarta-feira, 4
O Supremo Tribunal Federal (STF) adiou nesta quinta-feira, 28, o julgamento em torno do Marco Civil da Internet, que avalia se as redes sociais podem ser responsabilizadas por conteúdos publicados por usuários, mesmo sem ordem judicial prévia para remoção.
A análise deve ser retomada na próxima quarta-feira, 4, e pode determinar se as plataformas devem indenizar por danos morais causados por postagens ofensivas, discursos de ódio, fake news ou conteúdos prejudiciais a terceiros.
O julgamento tem como foco o artigo 19 do Marco Civil da Internet, legislação de 2014 que regula o uso da rede no Brasil.
A lei estabelece que as plataformas só podem ser responsabilizadas se não removerem conteúdos irregulares após decisão judicial específica.
Especialistas e ministros da Corte discutem se esse trecho confere imunidade excessiva às redes sociais diante de conteúdos ilícitos.
Primeiras manifestações e adiamento
Durante a sessão, os ministros ouviram especialistas e começaram a apresentar votos. O relator de um dos processos, Dias Toffoli, destacou a necessidade de atualizar o Marco Civil da Internet, especialmente no que se refere à responsabilidade dos provedores.
Ele afirmou que seu voto será concluído na próxima semana, quando também haverá a manifestação do segundo relator, Luiz Fux, seguida pelos votos dos demais ministros.
Toffoli defendeu que “o que é ilícito no mundo real deve ser considerado ilícito no mundo virtual”, enfatizando que as redes sociais lucram com a disseminação de conteúdos nocivos, como fake news e discursos de ódio.
“Aquilo que dá like nas redes sociais não é a verdade, não são as boas ações, não são as redes de ajuda. Infelizmente, o que dá like e impulsionamento, mais marketing, mais publicidade, mais ganho… e, ao fim e ao cabo, é de business, de dinheiro que se trata. Não há interesses aí outros que não o lucro”.
Debate sobre o 8 de janeiro e a autorregulação
O papel das redes sociais nos ataques de 8 de janeiro, quando sedes dos Três Poderes foram depredadas, foi um dos temas centrais discutidos na sessão desta quinta.
O advogado-geral da União, Jorge Messias, relembrou que conteúdos que incitavam a violência só foram retirados do ar após decisões do ministro Alexandre de Moraes.
Para Messias, a falta de ação das plataformas comprometeu a segurança do Estado Democrático de Direito.
Moraes afirmou que o episódio evidenciou a “falência total” da autorregulação das redes sociais.
Ele destacou que os ataques foram organizados e amplificados nas plataformas digitais, que se beneficiaram economicamente ao manter conteúdos no ar.
Leia também:
Segundo o ministro, “o sistema de autorregulação das big techs demonstrou uma falência total, instrumentalização e, em parte, conivência com os atos ilícitos”.
A ministra Cármen Lúcia também criticou a falta de controle, citando o caso recente de um homem que detonou explosivos em frente ao Supremo após fazer postagens ameaçadoras nas redes. Para ela, os riscos não são apenas institucionais, mas também pessoais e de ordem pública.
O papel da tecnologia no controle de conteúdos
Moraes rebateu argumentos de que seria tecnologicamente impossível controlar conteúdos prejudiciais. Ele citou exemplos de como algoritmos e inteligência artificial já são usados para bloquear, automaticamente, postagens relacionadas à pornografia infantil, pedofilia e violações de direitos autorais.
“E não se diga que tecnologicamente não é possível. Porque em relação – sabemos todos – à pornografia infantil, pedofilia e direitos autorais, a inteligência artificial e os algoritmos retiram, antes de um like, 93% das postagens, e os 7% seguintes são encaminhados à comissão de seres humanos. Então, é possível tecnologicamente. O que não houve e não vem havendo é empenho”, declarou.
Marco Civil da Internet e impactos do julgamento
O artigo 19 do Marco Civil da Internet é o ponto central do julgamento. Atualmente, as plataformas só podem ser responsabilizadas se descumprirem uma ordem judicial para remoção de conteúdo.
Essa regra tem gerado críticas por permitir que conteúdos prejudiciais permaneçam disponíveis por períodos prolongados, sem que as empresas enfrentem consequências.
Toffoli classificou a norma como uma “imunidade às redes sociais” e destacou que a internet não deve ser um espaço sem lei.
Segundo ele, a legislação precisa ser atualizada para refletir os desafios trazidos pelo modelo de negócios das big techs, que lucram com a monetização de interações, mesmo quando baseadas em conteúdos ilícitos.
Além de definir a responsabilidade das plataformas, o STF deverá elaborar uma tese a ser aplicada em processos semelhantes. Segundo o Conselho Nacional de Justiça, há pelo menos 345 casos aguardando desfecho com base no que for decidido pela Corte.
Sugestão de pauta