Dino dá quarto voto para responsabilizar redes sociais por publicações de usuários
O ministro Flávio Dino, do Supremo Tribunal Federal (STF), deu mais um voto nesta quarta-feira, 11, para responsabilizar plataformas e redes sociais por publicações de usuários. Com a manifestação, há quatro votos para ampliar as obrigações das big techs.
Em seu voto, o ministro defendeu que “a liberdade regulada é a única liberdade”.
“É absolutamente razoável que nós fortaleçamos o dever de vigilância, de prevenção, de cuidado, de precaução. Um shopping não tem que manter seguranças? Um banco não tem que manter seguranças? Qualquer atividade tem bônus e ônus”, defendeu.

O que o STF está julgando?
O julgamento gira em torno do artigo 19 do Marco Civil da Internet, que proíbe a responsabilização das plataformas por conteúdos publicados pelos usuários, exceto se houver descumprimento de decisões judiciais para remover publicações.
O STF vai decidir se se amplia a obrigação das plataformas de fiscalizarem os conteúdos que circulam nas redes – um dos maiores pontos de inquietação das big techs. O STF também precisa definir se as empresas de tecnologia podem ser punidas por publicações mesmo quando não houver ordem judicial para tirá-las do ar, o que implicaria uma moderação de conteúdo mais rigorosa.
Até o momento, além de Flávio Dino, votaram os ministros Dias Toffoli, Luiz Fux, Luís Roberto Barroso e André Mendonça.
Enquanto Toffoli e Fux defendem punições para as empresas de tecnologia que não removerem publicações ofensivas imediatamente após a notificação dos usuários, Barroso considera que a exigência de ordem judicial para remoção desses conteúdos deve continuar a valer, desde que as empresas melhorem seus sistemas internos de monitoramento.
Toffoli e Fux devem ainda que é dever das plataformas impedir espontaneamente e circulação publicações criminosas. Para Barroso, nos casos de crime, a notificação extrajudicial deve ser suficiente para a remoção do conteúdo.
Já André Mendonça defende manter as regras como estão.
Veja cada ministro votou até o momento:
Dias Toffoli
Toffoli foi o primeiro a votar. Para o ministro, a restrição imposta pelo Marco Civil da Internet é inconstitucional porque cria uma “imunidade” para as empresas de tecnologia e, ao mesmo tempo, deixa os usuários desprotegidos em um contexto de escalada de casos de violência digital, como cyberbullying, stalking, fraudes e golpes, discurso de ódio e fake news.
Toffoli propõe que as plataformas sejam punidas se ignorarem notificações extrajudiciais, preferencialmente por meio dos seus canais de atendimento, para remover conteúdos ilícitos, como fake news e ofensas. Com isso, a responsabilidade dessas empresas por publicações irregulares começaria a partir do momento em que forem notificadas pelos próprios usuários e não a partir do momento em que descumprissem decisões judiciais de remoção dos conteúdos.
O ministro também definiu um rol de “práticas especialmente graves” que, segundo o voto, devem ser prontamente excluídas pelas plataformas, sem necessidade de notificação dos usuários nem de decisão judicial, como tráfico de pessoas, racismo, terrorismo, estímulo ao suicídio e à violência, crimes contra o Estado Democrático de Direito, violência contra mulheres, crianças, adolescentes e pessoas vulneráveis, entre outros.
Nesses casos excepcionais, as empresas devem monitorar e agir por conta própria para impedir a circulação de publicações criminosas, sob pena de responsabilização. O voto prevê ainda que perfis falsos devem ser barrados pelas redes sociais.
Os pontos-chave do voto de Toffoli:
- O provedor deve ser responsabilizado pelos danos causados por conteúdos publicados pelos usuários quando for notificado pelo ofendido (ou seu representante legal), preferencialmente pelos canais de atendimento, e deixar de tomar “providências cabíveis em prazo razoável”;
- O provedor responde, independente de notificação, pelos danos decorrentes de conteúdos publicados por contas inautênticas, violações a direitos de autor e no caso do rol de crimes listados;
- Marketplaces respondem solidariamente com o anunciante por propagandas de produtos de venda proibida ou sem certificação pelos órgãos competentes.

Luiz Fux
O ministro Luiz Fux deu o segundo voto para ampliar a responsabilidade das plataformas e provedores por conteúdos publicados pelos usuários. Ele defendeu a inversão do modelo em vigor. A proposta é que as plataformas sejam obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da necessidade de remoção, que acionem a Justiça para obter autorização para disponibilizar novamente o conteúdo.
Assim como Toffoli, o ministro Luiz Fux propõe que as plataformas sejam obrigadas a monitorar e a remover espontaneamente publicações criminosas, como discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia a golpe de Estado.
“Conteúdos lesivos de direitos fundamentais, tais como fake news, discurso de ódio ou mesmo difamatórios, podem gerar engajamento substancialmente maior do que conteúdos lícitos e verdadeiros”, alertou o ministro.
Os pontos-chave do voto de Fux:
- Inverter o ônus da judicialização: a plataforma é que deve pedir autorização judicial para manter no ar publicações questionadas pelos usuários;
- As plataformas e provedores respondem por postagens ofensivas à honra, à imagem e à privacidade quando forem notificadas “por qualquer meio idôneo”;
- Canais “eficientes, funcionais e sigilosos” para receber denúncias e reclamações de usuários que se sintam lesados;
- Monitoramento ativo de publicações criminosas, como discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado;
- Responsabilidade automática no caso do impulsionamento pago: as plataformas precisam verificar se o conteúdo que recebem para impulsionar são regulares.

Luís Roberto Barroso
O presidente do STF sugere como alternativa o chamado “dever de cuidado”. Segundo a proposta, as big techs devem criar mecanismos para melhorar a qualidade da informação, mas só podem ser punidas por falhas amplas, isto é, pela omissão na gestão global dos conteúdos ilícitos e não por casos individuais.
Em discurso nesta quarta, na retomada do julgamento, Barroso fez um um pronunciamento em que negou que o tribunal esteja invadindo competências do Congresso ao julgar o tema.
O ministro afirmou que o STF tem o dever de definir critérios claros para serem aplicados em casos concretos que chegarem ao Judiciário e que essas balizas “só prevalecerão” até que o Congresso aprove legislação sobre o assunto.
Os pontos-chave do voto de Barroso:
- A exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente;
- Notificação privada (extrajudicial) e retirada de conteúdos como regra geral para publicações criminosas;
- Necessidade de decisão judicial para remoção de publicações que configurem crimes contra a honra (injúria, calúnia e difamação);
- Responsabilidade das plataformas, independente de notificação, por publicações ilícitas que forem impulsionadas ou veiculadas em anúncios pagos;
- Dever de cuidado: plataformas têm a obrigação de mitigar riscos criados ou potencializados pelas suas atividades, sobretudo quando impactarem “direitos individuais e coletivos e a estabilidade democrática”, e só podem ser responsabilizadas se houver uma “falha sistêmica” nesse trabalho;
- As plataformas têm que agir proativamente, ou seja, de ofício, para remover publicações sobre pornografia infantil, incentivo ao suicídio, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado;
- O Congresso deve definir as sanções possíveis para as plataformas e criar um órgão regulador independente e autônomo para a análise de conformidade, monitoramento e eventual aplicação das punições;
- As plataformas devem criar sistemas para a recepção de notificações dos usuários, com interface acessível e amigável, e publicar relatórios anuais, “claros e facilmente compreensíveis” sobre a atividade de moderação de conteúdo.
André Mendonça
Mendonça votou para manter a sistemática atual de responsabilidade das plataformas por publicações de usuários – apenas em caso de descumprimento de decisões judiciais para remover conteúdos. Foi o único voto alinhado com os interesses das big techs.
Mendonça equiparou as redes sociais a veículos de comunicação e jornalísticos e defendeu que, por isso, elas não podem sofrer restrições “à plena liberdade de informação”.
O ministro argumentou que considera arriscado transferir da Justiça para as próprias plataformas a moderação de conteúdos controversos.
“Não vislumbro como transferir às plataformas e, por consequência, ao algoritmo, o dever de ponderar, de modo automático e artificial, os valores em disputa, especialmente quando um desses valores é a liberdade de expressão”, defendeu.
Na avaliação de Mendonça, se as plataformas estiverem sujeitas a penalidades por conteúdos publicados por terceiros, a tendência é um aumento da vigilância sobre a atividade online dos usuários.
“A análise do tema enseja uma alteração de foco. Deixar de mirar na responsabilidade pela remoção do conteúdo ou do perfil, passando-se a destinar atenção aos protocolos e procedimentos empregados pelas plataformas na tentativa de criar um ambiente digital mais hígido, íntegro e salutar.”
Os pontos-chave do voto de André Mendonça:
- Plataformas não respondem por conteúdos de terceiros;
- É inconstitucional a remoção ou suspensão de perfis, exceto quando comprovadamente falsos, robôs ou criminosos;
- Em serviços de mensageria privada, como WhatsApp e Telegram, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados;
- A decisão que determinar a remoção de conteúdo deve apresentar fundamentação específica e, ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação.