1 de julho de 2025
Politica

Regulamentação das redes: Decisão do STF não amarra as mãos do Congresso, diz secretário João Brant

Secretário de Políticas Digitais do governo Lula, João Brant classifica de “conclusão importante” a decisão do Supremo Tribunal Federal (STF) sobre o Marco Civil da Internet. Mas ele ressalta que o julgamento não amarrou as mãos do Congresso Nacional e insta os parlamentares a avançarem numa nova legislação.

“Temos a perspectiva de um debate sobre um projeto de lei regulamentando os serviços digitais (elaborado pelo governo federal). Tem regras aí que vão ser estabelecidas pelo próprio Congresso. Mas depende muito de como os deputados e senadores vão reagir à tese a que o Supremo chegou”, afirmou em entrevista à Coluna do Estadão.

O STF encerrou, na quinta-feira, 26, o julgamento da constitucionalidade do artigo 19 do Marco Civil e ampliou as responsabilidades das plataformas digitais pelo conteúdo publicado por usuários na internet.

Brant rechaça críticas de que a mudança no entendimento causa prejuízos à liberdade de expressão. Avalia que o STF “não quer que a decisão signifique uma ‘domesticação’ do debate público”. “As tensões do debate público, o pluralismo e a divergência de ideias são saudáveis. Isso não significa que a incitação à violência seja entendida como conflito de ideias”, emenda.

O secretário observa que o mundo inteiro está inserido num debate maior de revolução tecnológica e manifesta preocupação com o cenário dos próximos anos, especialmente no período eleitoral.

“Hoje a gente está vendo coisas que, seis meses atrás, a gente não imaginava…Eu acho que nós vamos viver, nos próximos anos, uma enorme crise em relação à dimensão de integridade da informação. Ou seja, da capacidade do ambiente informacional de prover informações consistentes, confiáveis, precisas para a sociedade e, no fundo, permitir a escolha livre e informada do eleitor. É esse o centro da proteção que a gente precisa fazer”.

João Brant também aponta medidas já adotadas na Europa, avalia a legislação brasileira atual e destaca que o debate sobre inteligência artificial precisa ser feito separadamente da discussão sobre a regulamentação das redes e plataformas.

Confira abaixo os principais trechos da entrevista

João Brant, secretário de Políticas Digitais do Governo Lula
João Brant, secretário de Políticas Digitais do Governo Lula

O que representa esse desfecho a que chegou o julgamento do Marco Civil da Internet no STF?

O STF chegou a uma conclusão importante: de que há uma inconstitucionalidade parcial do artigo 19 do Marco Civil, porque ele não é capaz de proteger direitos fundamentais. Mas o equilíbrio não é fácil de alcançar. Se a gente olhar num outro extremo, a ideia de que as plataformas sejam responsabilizadas por qualquer conteúdo que o usuário encontre ali vai gerar uma transformação muito radical — e fazer com que as plataformas tenham quase que avaliar os conteúdos dos usuários antes de publicar. Onde está um meio do caminho razoável (encontrado pelo STF)? Na responsabilização das plataformas quando elas sejam remuneradas por aquele conteúdo, porque isso significa que elas se tornaram, em alguma medida, sócias de um conteúdo que está veiculado, ou quando ela tem algum nível de interferência relevante na distribuição daquele conteúdo.

Com essa decisão do STF, o Congresso fica de mãos amarradas para decisões posteriores que venham a mudar essa regulamentação da forma que ficou entendida no Supremo?

Não, de forma alguma. Temos a perspectiva de um debate sobre um projeto de lei regulamentando os serviços digitais (elaborado pelo governo federal). Tem regras aí que vão ser estabelecidas pelo próprio Congresso Nacional. Mas depende muito de como os deputados e senadores vão reagir à tese a que o Supremo chegou.

Quando o Marco Civil foi aprovado em 2014, ele foi recebido como uma legislação vanguardista. O que mudou de dez anos para cá para que as redes sociais tenham se tornado alvo de tentativas de maior regulação ao redor do mundo?

O debate sobre o Marco Civil é de alguns anos antes, quando as plataformas digitais começaram a perceber que poderiam entender as perspectivas de consumo ao captar informações sobre o seu comportamento dos usuários nas redes. As plataformas têm a capacidade de entregar conteúdo que é relevante para os desejos e afetos do usuário, mas vêm se tornando um modelo de funcionamento perverso, que busca a maximização do engajamento dos usuários gerando incentivos contrários ao de ouvir o contraditório. Foi ficando claro que, se não trouxermos algum nível de responsabilidade às plataformas, vamos acabar gerando uma escala absurda de conteúdos ilegais sendo veiculados com o interesse das plataformas.

Por que a legislação que existe hoje não é suficiente para punir e evitar que os crimes sejam cometidos no ambiente online, ou quem os cometeu seja penalizado?

A legislação é suficiente para punir a posteriori, depois de um processo, mas não para evitar (um crime). Não há um ambiente de acompanhamento daquele espaço para que esses conteúdos ilegais não sejam disseminados de forma sistemática. Então, é confortável para a plataforma dizer o seguinte: “olha, eu não tenho responsabilidade, eu estou esperando chegar a uma ordem judicial”. Você imagina se a gente vivesse em um ambiente que não tem regra de trânsito. Você espera chegar a uma ordem judicial depois de você bater num carro e gerar um dano para alguém. Não faz nenhum sentido. Você precisa ter regra de trânsito para evitar colisões. Uma vez que haja uma colisão, aí você tem o Código Civil, o Código Penal para acionar. O que você não pode é não ter regra de trânsito.

Críticos à regulação das plataformas dizem que a Justiça não deveria agir para derrubar, por exemplo, perfis inteiros nas redes sociais, mas sim para remover a publicação específica que fere a lei. Há quem entenda que a mudança no entendimento do Marco Civil vai prejudicar a liberdade de expressão, uma vez que as plataformas teriam que remover de antemão qualquer conteúdo potencialmente criminoso. O senhor concorda?

O STF está olhando para esse tema com os devidos cuidados e não quer que a decisão signifique uma “domesticação” do debate público. As tensões do debate público, o pluralismo e a divergência de ideias são saudáveis. Isso não significa que a incitação à violência seja entendida como conflito de ideias. Não há por que a gente confundir as duas coisas. Eu acho que a questão (do banimento) das contas é uma questão delicada. Ao restringir uma conta, você pode estar criando uma restrição anterior à liberdade de expressão, o que seria uma violação à Convenção Americana de Direitos Humanos. Ao mesmo tempo, muitas vezes, se você tem a conta reiteradamente usada para o cumprimento sistemático de crimes, de uma violação sistemática, a suspensão daquela conta passa a ser uma medida mais gravosa porque o dano é mais gravoso também.

Nessa questão das redes sociais, o Brasil está numa zona muito cinzenta ou isso é um problema ainda mundo afora?

Nós estamos diante de um problema global. A Europa impôs uma série de medidas de transparência. Está lutando para que as plataformas, de fato, as efetivem, porque o compliance não é trivial, não é fácil. Há, portanto, mais transparência na Europa, mas mesmo nos lugares onde esse tipo de regra foi estabelecido, a gente está vendo um movimento contrário por parte das plataformas. Diminuir o acesso dos pesquisadores aos dados daquelas plataformas, diminuir a capacidade da sociedade de avaliar o ambiente informacional, de entender quais os debates que estão se dando. Na prática, a falta de transparência vai gerando um ambiente em que você não sabe nem o que está acontecendo. E acho que isso nos rebaixa como sociedade. Ou seja, nós estamos falando de transparência não só como um valor para lidar com o conteúdo ilegal, mas como um valor necessário para a gente se entender.

No que a gente deveria mirar quando fala de transparência? Por que os algoritmos, por exemplo, são cruciais para entender o funcionamento das redes, mas são tratados também como segredo de negócios das empresas. O que, de fato, é direito das empresas manterem sob sigilo?

Os algoritmos são as regras que elas usam, regras de computador, para analisar, para ver como é que eu vou distribuir o conteúdo, o que é que eu vou dar mais peso, o que é que eu vou dar menos peso. Aquilo que é segredo de negócio não é o essencial a gente conseguir enxergar, mas é essencial a gente entender que aquele resultado só vai ser modificado se ela modificar aquela regra. O que eu estou querendo dizer com isso? Me interessa muito mais qual o produto daquele algoritmo, entender se esse produto é um problema no sentido de proteção de direitos, eu preciso estabelecer uma obrigação da plataforma mudar os seus algoritmos. (Tudo bem) manter o segredo de negócio. O que não dá é a gente fingir que essas regras não estão, nesse momento, favorecendo um tipo de conteúdo inflamatório, ilegal, danoso, que viola direitos de crianças e adolescentes, racismo, violência contra a mulher, disseminação de crimes contra a saúde pública, coisas que a gente não pode trabalhar como se fossem naturais.

O senhor acha que o debate sobre a inteligência artificial precisa ser tratado de forma separada da da regulação das redes sociais?

Tratar dos dois temas em conjunto não é possível, e não sei se seria desejável. A visão do governo é uma visão de que, primeiro, nós não podemos ficar recortando rede social, serviço X, serviço Y. Nós precisamos olhar para os serviços digitais (de forma geral). E você precisa garantir algumas obrigações de prevenção e de precaução para que não haja uma violação sistemática de direitos. Isso não significa que isso precisa ser tratado no mesmo diploma legal. Você pode olhar para a questão da inteligência artificial como um tema específico. O texto que foi aprovado no Senado está em discussão na Câmara. Ele parte também dessa dimensão de avaliação de risco e eu acho que é um acerto. Porque quando a gente olha para o futuro, eu não sei como a tecnologia vai evoluir rápido. Eu não posso ter uma legislação que fique olhando para o que a tecnologia faz ou deixa de fazer. Preciso dizer para os atores o seguinte: joga seu jogo, mas garanta que o seu produto não vai ser danoso.

Na eleição municipal de Buenos Aires, circulou um deepfake manipulado do ex-presidente Maurício Macri pedindo votos para o partido adversário, do presidente Javier Milei. Não dá para dizer o quanto isso influenciou a eleição, mas quem acompanha o assunto ficou alarmado com essa possibilidade. Algo no avanço da tecnologia da inteligência artificial preocupa o senhor para a eleição presidencial no ano que vem no Brasil?

Hoje a gente está vendo coisas que, seis meses atrás, a gente não imaginava. Acho que o TSE tem tido capacidade de, a cada dois anos, na atualização da resolução eleitoral de propaganda, ser bastante preciso em quais os comportamentos, quais as condutas que ele está tentando inibir e que ele acha que viola o Código Eleitoral. Tem um elemento difícil, que é a aplicação disso em tempo, durante o processo eleitoral. O Ministério Público Eleitoral precisa assumir uma responsabilidade maior na sua capacidade de perceber violações e de levá-las à Justiça Eleitoral, que precisa ter especialidade e capacidade de julgar rápido e de tomar decisões que tenham o peso que precisam ter. Mas por que eu quis dizer que nós estamos inseridos em um debate maior de uma revolução tecnológica? Eu acho que nós vamos viver, nos próximos anos, uma enorme crise em relação à dimensão de integridade da informação. Ou seja, da capacidade do ambiente informacional de prover informações consistentes, confiáveis, precisas para a sociedade e, no fundo, permitir a escolha livre e informada do eleitor. É esse o centro da proteção que a gente precisa fazer.

 

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *