IA no Judiciário: solução milagrosa para a morosidade ou a armadilha dos algoritmos
A crescente demanda por eficiência e celeridade no sistema judiciário brasileiro tem impulsionado a adoção de soluções tecnológicas, com destaque para a inteligência artificial (IA). A aplicação dessa tecnologia visa otimizar desde o processamento de dados e a classificação de processos até a análise de admissibilidade de recursos, com o objetivo primordial de reduzir o tempo de tramitação das ações e aprimorar a gestão processual.
Nesse contexto, o Supremo Tribunal Federal (STF) tem sido um protagonista. Em maio de 2023, a Suprema Corte finalizou a fase de testes da VitórIA, uma plataforma desenvolvida para ampliar o conhecimento sobre o perfil dos processos recebidos e permitir o tratamento conjunto de temas repetitivos. Essa ferramenta se soma a outras já consolidadas no STF, como o Victor, utilizado desde 2017, para a análise de temas de repercussão geral, e a Rafa, projetada para integrar os Objetivos de Desenvolvimento Sustentável (ODS) da ONU às atividades do tribunal.
A utilização da IA, contudo, não se restringe à Suprema Corte. Conforme aponta o relatório “Tecnologia Aplicada à Gestão dos Conflitos no Âmbito do Poder Judiciário Brasileiro” da Fundação Getúlio Vargas (FGV), cerca de metade dos tribunais brasileiros já possui projetos de inteligência artificial em operação ou em fase de desenvolvimento. Esses programas são empregados em diversas frentes, como na classificação automática de documentos, na identificação de práticas como a advocacia predatória (ajuizamento massificado e artificial de ações), na indexação de processos e no monitoramento de movimentações processuais.
Seguindo essa tendência, neste ano, o Superior Tribunal de Justiça (STJ) lançou o “STJ Logos”, um motor de IA generativa desenvolvido internamente. A ferramenta foi concebida para otimizar a elaboração de minutas de relatórios de decisão e a análise de admissibilidade de agravos em recurso especial, além de oferecer suporte interativo, permitindo consultas diretas sobre os processos.
Diante do volume expressivo de processos em trâmite no Brasil – aproximadamente 78 milhões em 2022, conforme dados do Conselho Nacional de Justiça (CNJ) – a automação dos procedimentos administrativos e judiciais emerge como uma necessidade urgente. Ela é fundamental para mitigar a sobrecarga do Judiciário e, consequentemente, ampliar e qualificar o acesso à justiça.
No entanto, a implementação da IA, apesar de promissora, suscita importantes questionamentos éticos e jurídicos. Ciente desses desafios, o Conselho Nacional de Justiça (CNJ) estabeleceu diretrizes iniciais para o uso da IA por meio da Resolução nº 332/2020 e, mais recentemente, uma nova resolução foi aprovada, ampliando as normas para incluir a IA generativa. Entre os pontos cruciais abordados, destacam-se a classificação dos sistemas de IA conforme o grau de risco (baixo, médio, alto e excessivo) e a obrigatoriedade de supervisão humana qualificada, especialmente em decisões que afetem direitos.
A regulamentação também busca prever e mitigar conflitos de interesse, especialmente no desenvolvimento e fornecimento de sistemas por empresas privadas. A independência dos tribunais e a integridade das decisões judiciais poderiam ser comprometidas caso empresas que figuram como partes em processos judiciais também sejam as responsáveis pelo fornecimento dessas soluções tecnológicas.
Porém, o fascínio com a tecnologia não pode anestesiar o senso crítico. Estamos diante de um dilema ético e jurídico dos mais desafiadores do nosso tempo: quem julga quando a máquina sugere? E quem responde quando ela erra?
É crucial reconhecer que os algoritmos de inteligência artificial não são inerentemente neutros. Eles são desenvolvidos por seres humanos e alimentados com vastos conjuntos de dados, podendo, assim, carregar vieses implícitos – sejam eles sociais, históricos ou de outra natureza – que afetam a tomada de decisão. A falta de transparência na construção e no funcionamento dessas ferramentas pode comprometer a isonomia, a imparcialidade e o devido processo legal, resultando em decisões potencialmente discriminatórias ou inconsistentes com os princípios fundamentais do direito.
Para além dos vieses intrínsecos e da falta de explicabilidade, a utilização da IA, introduz o perigo tangível da fabricação de informações e do uso indevido. A prática forense já tem sido palco de incidentes preocupantes que demonstram esses riscos. Recentemente, o Ministro Cristiano Zanin, do STF, rejeitou uma petição que continha precedentes jurisprudenciais falsos, gerados por IA, inclusive, apontando má-fé processual por parte do peticionante.
Em outro caso emblemático, o Tribunal de Justiça do Paraná (TJ/PR) também rejeitou um recurso elaborado por inteligência artificial que inventou nada menos que 43 julgados inexistentes.
Contudo, a utilização da inteligência artificial não se restringe apenas aos litigantes. O próprio Poder Judiciário tem explorado essas ferramentas, o que também suscita debates e a necessidade de cautela. Um exemplo notório é o caso de um juiz do Tribunal Regional Federal da 1ª Região (TRF1) que utilizou o ChatGPT para auxiliar na elaboração de uma decisão judicial. Tal fato motivou a abertura de uma investigação pelo Conselho Nacional de Justiça (CNJ) para apurar a conduta e os limites éticos e técnicos dessa prática no âmbito da magistratura. Este episódio ilustra que a responsabilidade e os riscos associados ao uso da IA permeiam todas as esferas do sistema de justiça.
Esses episódios, onde a IA cria conteúdo inverídico, não apenas sobrecarregam o sistema com informações inverídicas, mas enfraquecem a confiança na advocacia e no próprio Poder Judiciário.
Ademais, a facilidade de acesso a tais ferramentas levanta preocupações sobre a qualidade e a ética na prestação de serviços jurídicos. Exemplo disso é a investigação iniciada pela OAB/RJ para apurar a oferta de petições para Juizados Especiais Cíveis (JEC), supostamente elaboradas por IA, a um valor irrisório de R$ 20,00. Tal prática, se disseminada sem o devido controle e supervisão qualificada, pode levar à precarização da advocacia, à apresentação de peças processuais deficientes e, em última instância, a um grave desserviço à representação e aos direitos dos jurisdicionados.
Apesar da inteligência artificial deter um papel promissor na modernização do Judiciário, contribuindo significativamente para a celeridade processual e uma gestão mais eficiente dos litígios, a implementação dessas tecnologias deve ser acompanhada por regulações claras e robustas, que assegurem transparência, explicabilidade, imparcialidade e à segurança jurídica.
Dessa forma, a adoção da IA no Judiciário precisa ser conduzida com extrema responsabilidade e um olhar crítico. É imperativo garantir que a tecnologia sirva como um instrumento de otimização e apoio à decisão humana, sem comprometer a autonomia e a discricionariedade dos magistrados, a indispensabilidade da advocacia ou os direitos fundamentais dos jurisdicionados. O equilíbrio entre inovação tecnológica e a salvaguarda dos princípios ético-jurídicos será essencial para que a IA contribua de maneira justa, eficaz e verdadeiramente transformadora para a justiça brasileira.
A tecnologia pode – e deve – ser uma aliada do Judiciário. Mas nunca pode se tornar protagonista no lugar de quem, de fato, tem o dever de julgar. Não podemos confundir eficiência com justiça, nem velocidade com equidade.