30 de junho de 2025
Politica

Veja os pontos de discordância dos ministros do STF sobre a responsabilização das big techs

RIO – O Supremo Tribunal Federal (STF) concluiu nesta quinta-feira, 26, o julgamento da ação para responsabilizar provedores e redes sociais por publicações de usuários. Por 8 votos a 3, os ministros decidiram que as empresas respondem por crimes ou atos ilícitos e por contas falsas se não removerem esses conteúdos após notificação privada (extrajudicial). Em seus votos, os ministros apresentaram propostas distintas sobre regras a serem adotadas na responsabilização das plataformas.

Dias Toffoli defende ‘responsabilidade eficiente’

O ministro Dias Toffoli, primeiro a votar, defendeu uma “responsabilização eficiente da internet”. Toffoli reconheceu que o Marco Civil da Internet representou um avanço na conquista democrática, no entanto, destacou que, decorridos mais de dez anos da aprovação da lei, é necessário uma atualização da legislação. Para o ministro, o artigo 19 do Marco Civil da Internet é inconstitucional por ser incapaz de oferecer proteção aos direitos fundamentais no ambiente digital.

Toffoli propôs que as plataformas fossem punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começaria a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprissem decisões judiciais de remoção dos conteúdos.

O plenário do Supremo Tribunal Federal (STF)
O plenário do Supremo Tribunal Federal (STF)

O ministro também definiu um rol de “práticas especialmente graves” que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial, como tráfico de pessoas, racismo, terrorismo, estímulo ao suicídio e à violência, crimes contra o Estado Democrático de Direito, violência contra mulheres, crianças, adolescentes e pessoas vulneráveis, entre outros.

Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização.

Luiz Fux defende remoção imediata de conteúdo

O ministro Luiz Fux defendeu a inversão do modelo em vigor. A proposta era que as plataformas fossem obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da necessidade de remoção, que acionem a Justiça para obter autorização para disponibilizar novamente o conteúdo.

Barroso votou por remoção em caso de crimes

Para o presidente do STF, ministro Luís Roberto Barroso, nos casos de crime, “exceto de crimes contra a honra”, notificação extrajudicial deve ser suficiente para a remoção de conteúdo. Já nos casos de crimes contra a honra e de ilícitos civis em geral, continua a se aplicar a exigência de ordem judicial para a remoção.

Mendonça quis manter lei atual

Já o ministro André Mendonça divergiu da maioria. Ele votou para manter a sistemática atual de responsabilidade das plataformas por publicações de usuários – apenas em caso de descumprimento de decisões judiciais para remover conteúdos. Pela regra atual, as plataformas só são obrigadas a suprimir publicações após ordem do Judiciário.

Dino votou por responsabilizar civilmente provedores

O ministro Flávio Dino defendeu que o provedor de aplicações de internet deveria ser responsabilizado civilmente pelos danos decorrentes de conteúdos gerados por terceiros em casos de postagens de perfis falsos e chatbots, em “ilicitudes veiculadas em anúncios pagos e postagens patrocinadas, ou mecanismos similares”, crimes contra crianças e adolescentes, crime de induzimento, instigação ou auxílio ao suicídio ou à automutilação, crime de terrorismo e em casos de apologia ou instigação de violência, ou grave ameaça, visando à prática dos crimes contra o Estado Democrático de Direito.

O ministro destacou ainda que os provedores de aplicações de internet deveriam editar autorregulação que abranja, necessariamente, um sistema de notificações, um devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamento.

Zanin defendeu cautela na classificação de conteúdo criminoso

O ministro Cristiano Zanin defendeu diferenciar “conteúdos evidentemente criminosos ou ilícitos” de publicações em que houver “dúvida razoável sobre a ilicitude do conteúdo”. No primeiro caso, segundo a posição do ministro, as plataformas podem ser punidas se deixarem de remover postagens após notificação dos usuários. No segundo caso, os provedores podem aguardar uma ordem judicial.

Gilmar Mendes quer que plataformas tenham sistema de remoção

O decano do STF, ministro Gilmar Mendes, defendeu que as plataformas devem desenvolver mecanismos técnicos para estender decisões de remoção de conteúdo, sejam elas por ordem judicial ou notificação privada, casos repetitivos de “conteúdos ilícitos idênticos”.

Moraes quer responsabilização das redes após notificação de usuário

O ministro Alexandre de Moraes votou para que as big techs sejam responsabilizadas por conteúdos de terceiros a partir do momento em que forem notificadas por usuários, e não apenas após decisão judicial.

Fachin alertou para risco de ‘censura colateral’

O ministro Edson Fachin divergiu da maioria e argumentou que a tecnologia está em “incessante mutação” e que o julgamento do STF sobre a moderação de conteúdo não será suficiente para resolver os problemas gerados pela concentração de poder nas mãos das plataformas. O ministro defendeu que a regulamentação das redes sociais seja feita pelo Congresso, com a edição de uma legislação abrangente sobre o tema.

Fachin ainda alertou para o risco de “efeito colateral” às recomendações que o STF pudesse impor às plataformas com restrições irregulares à liberdade de expressão.

Cármen Lúcia segue maioria e Nunes Marques prefere manter regra atual

A ministra Cármen Lúcia acompanhou a maioria para ampliar as responsabilidades das plataformas pelo conteúdo que permitem circular, enquanto o ministro Nunes Marques votou para reconhecer a validade do artigo 19 e um modelo de consenso entre a liberdade de expressão e a proteção à honra, intimidade e imagem no ambiente virtual.

 

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *