30 de junho de 2025
Politica

Google vê risco de ‘censura’ em ação do Marco Civil no STF e faz rodada de conversas em Brasília

BRASÍLIA – Enquanto avança o julgamento no Supremo Tribunal Federal (STF) sobre a constitucionalidade do artigo 19 do Marco Civil da Internet, o Google tem feito uma rodada de conversas com representantes dos Três Poderes em Brasília para tratar do assunto.

Kent Walker, presidente de assuntos globais do Google, encontrou-se na tarde desta terça-feira, 10, com o ministro Cristiano Zanin, que estava próximo de votar na ação que deve impactar nos negócios das plataformas digitais. Com os votos dele, de Flávio Dino e de Gilmar Mendes, a Corte formou maioria nesta quarta-feira, 11, por responsabilizar as empresas pelo conteúdo publicado por seus usuários.

Kent Walker defende leis para seu setor
Kent Walker defende leis para seu setor

Walker vê risco de censura na direção que o julgamento vem tomando. Cinco dos 11 ministros já defenderam ampliar as obrigações das big techs na moderação de conteúdo. O Tribunal também precisa definir se, e em que casos, as empresas de tecnologia podem ser punidas por publicações mesmo quando não houver ordem judicial para tirá-las do ar, o que implicaria uma moderação de conteúdo mais rigorosa.

“Há uma oportunidade de conversar com alguns dos ministros sobre isso. E, novamente, esperamos que haja um equilíbrio razoável entre a liberdade de expressão total e a responsabilidade social. Mas não queremos que isso se transforme em censura. Não queremos ter que retirar as suas reportagens de nossos serviços”, afirmou Walker a jornalistas durante um almoço promovido pelo Google nesta tarde, em que o Estadão foi convidado.

O americano defende o artigo 19 do Marco Civil, segundo o qual as plataformas só devem retirar conteúdo do ar quando houver uma ordem judicial, e sugere uma trinca de temas pelos quais as plataformas deveriam ser automaticamente responsabilizadas: ameaças à democracia, incitação à violência e ameaças a crianças e adolescentes.

“Mas o que está sendo sugerido (no STF) é uma noção muito mais ampla do dever de cuidado, que não está muito bem definida. E, da forma como nossas ferramentas funcionam, teríamos que remover muito conteúdo, incluindo conteúdo politicamente valioso, para evitar o risco de responsabilidade por algo que ultrapasse os limites”, disse.

Para Walker, é preciso ponderar onde traçar a linha da remoção de conteúdo no espectro entre a liberdade de expressão e a potencial censura. Isso porque o Google, apesar de ter aprimorado seu sistema de moderação de conteúdo, enfrenta milhares de publicações de conteúdo problemático todos os dias e teme ser responsabilizado por aqueles que passem pelo filtro da empresa. Hoje, uma em cada mil visualizações no YouTube viola as políticas internas da empresa, enquanto a taxa era de uma em cada cem anos atrás, segundo o executivo.

“Onde quer que você trace a linha, teremos que traçá-la de forma mais conservadora, porque nossos algoritmos não são perfeitamente precisos e não podemos correr o risco de infringir essa linha. Haverá o risco de censurar discursos legítimos quando você cria responsabilidades para plataformas que não têm como investigar a veracidade de uma determinada alegação”, declarou ele.

Nos últimos anos, plataformas como Facebook, Instagram e YouTube (que pertence ao Google) foram inundadas de conteúdo difundindo teses conspiratórias sobre fraudes no sistema eleitoral e contra as vacinas, em plena pandemia de covid-19. Críticos das empresas dizem que elas deveriam ter feito mais para frear a desinformação e agir para impedir a viralização desse tipo de conteúdo.

O ex-presidente Jair Bolsonaro (PL), por exemplo, foi interrogado nesta terça-feira no STF na ação que apura tentativa de golpe de Estado. Ele foi indagado pelos diversos ataques sem comprovação que desferiu contra as urnas eletrônicas, de modo a descredibilizar as eleições que ele viria a perder. Conteúdo similar, inclusive produzido por Bolsonaro, foi amplamente compartilhado por seus seguidores.

Walker foi questionado sobre o que o Google pretende fazer para combater a desinformação nas campanhas eleitorais de 2026, e afirmou que a empresa leva eleições muito a sério.

“No ano passado, mais pessoas votaram nas eleições em todo o mundo do que em qualquer outro momento da história. Tivemos o que chamamos de salas de guerra, equipes dedicadas a todas as eleições importantes. E não vimos interferência em nossas plataformas. Não vimos deepfakes, etc. Ou, quando vimos algo, fomos capazes de responder imediatamente e removê-lo. Faremos o mesmo nas eleições do Brasil no ano que vem”, disse.

Ele citou o caso de um deepfake da então presidente da Câmara dos Deputados dos Estados Unidos, a democrata Nancy Pelosi, que viralizou em 2019. O vídeo tinha sido editado para deixar a fala dela mais lenta – e parecer que ela estava bêbada. Walker diz que o YouTube removeu esse vídeo mesmo sem ordem judicial, porque era enganoso e o usuário poderia não conseguir distinguir se era verdadeiro.

O concorrente Facebook, entretanto, à época chegou a se desculpar pela demora em retirar o vídeo de circulação, mostrando haver falhas no processo de moderação. Em maio deste ano, noutra controvérsia, a campanha eleitoral numa eleição municipal em Buenos Aires, na Argentina, foi marcada por um caso de deepfake. Um vídeo alterado em que o ex-presidente Mauricio Macri anunciava a derrota no pleito e pedia votos para o partido adversário, do presidente Javier Milei, viralizou e levantou debate sobre a interferência da tecnologia no processo.

 

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *