A democracia na era dos algoritmos: quem decide quando já não somos nós?
A democracia não é apenas um conjunto de regras eleitorais. Ela é, antes de tudo, um ecossistema de atenção, informação e conflito. Durante boa parte de sua história recente, esse ecossistema organizou-se em torno da ideia de razão pública: o debate mediado por instituições, pela imprensa profissional e por espaços comuns de deliberação.
Essa arquitetura ainda é evocada no discurso político, mas tornou-se insuficiente em um mundo no qual os mecanismos que estruturam o debate coletivo deixaram de ser predominantemente deliberativos para passar a operar por sistemas automatizados de seleção e priorização de conteúdo.
Durante décadas, o espaço público foi imperfeito — e humano. Hoje, ele continua existindo, mas perdeu qualquer pretensão de neutralidade. A visibilidade das ideias passou a ser regulada por códigos opacos que organizam a atenção, hierarquizam opiniões e moldam a percepção do consenso político.
Não elegemos esses sistemas. Eles não são debatidos no Congresso, não passam por escrutínio público e seus critérios permanecem inacessíveis. Ainda assim, determinam o que vemos, o que ignoramos, o que nos mobiliza emocionalmente e até aquilo que acreditamos ser majoritário. A democracia do século XXI não está sendo corroída por tanques ou golpes clássicos, mas por engrenagens invisíveis de otimização, desenhadas para maximizar engajamento, lucro e previsibilidade comportamental.
A questão central já não é se a tecnologia influencia a política — isso é um fato consumado. O problema é saber se democracias conseguem sobreviver quando a mediação do debate público deixa de ser institucional e passa a ser governada por processos automáticos.
No Brasil, as redes sociais tornaram-se o principal espaço de formação de opinião política. Mas não funcionam como praças públicas: operam como mercados de atenção. Cada postagem, vídeo ou polêmica é avaliada não por sua relevância cívica ou compromisso com a verdade, mas por sua capacidade de gerar cliques, reações e tempo de permanência. O resultado é conhecido: conteúdos extremos são premiados, nuances são penalizadas e a indignação permanente converte-se em ativo político.
Esse ambiente não produz apenas polarização; cria uma ilusão perigosa de maioria. Quando sistemas de recomendação nos expõem repetidamente a opiniões semelhantes às nossas, reforçam a sensação de que “todo mundo pensa assim”. O dissenso deixa de ser entendido como parte natural da democracia e passa a ser tratado como ameaça ou traição. A erosão da confiança não começa nas instituições — começa entre os próprios cidadãos.
A expansão da inteligência artificial elevou esse fenômeno a outro patamar. Já não se trata apenas de amplificar discursos existentes, mas de produzir narrativas em escala industrial. Textos, imagens, vídeos e vozes sintéticas permitem fabricar consensos artificiais, simular apoio popular e desacreditar adversários com um grau de sofisticação inédito. A verdade passa a ser disputada não pela ausência de fatos, mas pela superabundância de versões plausíveis.
Diante desse cenário, a resposta política tem sido lenta e, muitas vezes, ingênua. Regula-se a tecnologia como se fosse apenas mais um setor econômico, quando ela se tornou uma infraestrutura central da vida democrática. Discute-se a propaganda eleitoral, mas ignora-se o impacto estrutural dos mecanismos de curadoria de conteúdo. Fala-se em educação midiática como solução quase exclusiva, como se fosse razoável exigir que o cidadão comum enfrente sozinho sistemas concebidos por equipes especializadas em psicologia comportamental e ciência de dados.
Não se trata de rejeitar a tecnologia. Ferramentas automatizadas não são, por natureza, inimigas da democracia. Podem, em tese, ampliar a diversidade de perspectivas, reduzir a desinformação e fortalecer o debate público. O problema é que, quando submetidas exclusivamente à lógica do mercado, tendem a produzir exatamente o oposto.
A pergunta decisiva é política: quem deve controlar a estrutura da esfera pública digital? Empresas privadas com interesses comerciais globais ou sociedades democráticas, por meio de regras transparentes, auditáveis e sujeitas a controle público?
Responder a essa pergunta exige abandonar a ideia confortável de neutralidade tecnológica. Regular esses sistemas não é censura; é uma forma contemporânea de separação de poderes. Assim como não aceitamos que bancos privados definam sozinhos a política monetária, não deveríamos aceitar que plataformas digitais determinem, sem limites, as condições do debate democrático.
A União Europeia avançou com legislações como o Digital Services Act, mas mesmo esses esforços ainda são insuficientes. A transparência dos critérios de priorização permanece limitada, a auditoria independente é rara e as sanções dificilmente acompanham a velocidade da inovação.
O Brasil tem feito avanços importantes na construção de um marco regulatório para a economia digital e para a inteligência artificial, com projetos de lei em tramitação, planos nacionais de governança e o fortalecimento de instituições. Ainda assim, o desafio de equilibrar proteção de direitos, inovação e autonomia institucional permanece — e muito dependerá da capacidade de transformar normas em práticas efetivas.
É nesse ponto que o risco democrático se impõe. A democracia raramente desaparece de forma abrupta. Ela se desgasta aos poucos. Perde densidade. Transforma-se em espetáculo. Quando nos damos conta, ainda votamos, mas já não deliberamos. Ainda falamos, mas deixamos de nos escutar.
Se a democracia sempre foi um sistema imperfeito, sua força residiu na capacidade de corrigir os próprios erros. O desafio agora é saber se conseguirá fazê-lo em um ambiente no qual as distorções são amplificadas automaticamente e a atenção se tornou o recurso mais disputado do planeta.
Hoje, a defesa da democracia passa menos pelas urnas e mais pelo código. E isso exige que deixemos de tratar a tecnologia como um destino inevitável para encará-la como aquilo que sempre foi: uma escolha política.
