Reflexões sobre o uso da IA no Judiciário
O medo associado às novas tecnologias deriva essencialmente da percepção humana diante da imprevisibilidade e do risco potencial inerentes ao novo. As relações sociais e os papéis ocupacionais no contexto de incerteza e velocidade de informação estimulam sentimentos tais como insegurança e instabilidade. O fenômeno é caracterizado por Maria Elena Osiceanu como “tecnofobia”, que pode ser definido como a ansiedade causada pelos efeitos colaterais das tecnologias avançadas, ainda mais uma tecnologia de acesso fácil e quase irrestrito.
No Direito, o medo frente às novas tecnologias impacta significativamente conceitos tradicionais relacionados ao devido processo, que se manifesta em episódios históricos nos quais o Poder Judiciário mostrou resistência inicial a inovações tecnológicas. Podemos citar exemplos recentes o episódio do advogado usando a IA em sua sustentação oral, e mesmo tendo avisado antes e sido autorizado, recebeu reprimenda dos julgadores ao final da aplicação da tecnologia no ato formal. Não muito diferente, nos Estados Unidos a questão se deu pelo uso de imagem, sem aviso ou autorização, igualmente na manifestação oral.
Com efeito, o principal balizador do estudo da inovadora inteligência artificial, por incrível que pareça e paradoxalmente, circunda o antigo estudo humano e a ética, que pode se desdobrar indiretamente no bom senso. O exercício da ética, na melhor concepção filosófica da palavra é a ponderação do bom e mau, e dentre os conceitos morais da nossa sociedade, entender o que seria justo ou injusto, certo ou errado, estabelecendo alguns limites na ação, reação, e no caso em comento no seu uso.
Os agentes da justiça precisam usar o bom senso antes de usar a máquina, refletindo sobre a ética. A IA quer lhe atender, fará o possível e o impossível para alcançar seu pedido, tal qual o “gênio da lâmpada”, que se mal orientado pode trazer efeitos nefastos, tanto levando a erro o consulente, como produzindo material inexistente ou temerário, no intuito de entregar o que lhe foi solicitado. Destaca-se que a máquina não tem a baliza ética e moral de nós seres humanos, nem tampouco o bom senso, sendo incapaz de discernir, por exemplo, o que é conveniente ou não de se dizer ou fazer durante um enterro ou um velório.
As instituições Brasileiras vem buscando e evoluindo na regulação do tema, sempre colocando a ética como norteador, sendo que tive a honra de ajudar na construção, pela OAB Nacional, da elaboração da recomendação no uso de inteligência artificial, disponível no site da instituição, e de participar dos debates que resultaram na Resolução n.º 615/2025 do CNJ, que trata do tema no âmbito do Poder Judiciário, bem como de discussões no âmbito do Senado Federal, visando à aprovação do Projeto de Lei n.º 2.338.
O uso da IA generativa no Direito suscita ainda preocupações éticas principalmente em relação a princípios, garantias e prerrogativas constitucionais estruturantes do sistema de justiça, segundo o qual atos decisórios devem ser emanados diretamente pelo magistrado investido no cargo (identidade física do juiz) e com a explicitação das razões que conduziram o julgador às conclusões expostas em suas manifestações, a partir do debate dialético entre as distintas posições em jogo em cada conflito de interesses submetido à jurisdição.
Há notável dificuldade prática relacionada ao dever constitucional de fundamentação das decisões judiciais, pois a difícil explicabilidade das decisões produzidas pela IA generativa decorre da complexidade intrínseca dos modelos algorítmicos utilizados, cujos processos internos são frequentemente descritos como “caixas-pretas”. A tarefa de transcrever o raciocínio lógico que justifica determinada decisão produzida com auxílio de IA, para além da mera fundamentação formal, torna-se praticamente impossível; o magistrado precisa necessariamente demonstrar o percurso argumentativo adotado, algo que se torna complexo quando parte relevante desse percurso é delegada a algoritmos pouco transparentes em seu funcionamento interno.
Além disso, a possibilidade real de perpetuação ou amplificação de vieses discriminatórios embutidos em dados utilizados pelos algoritmos é outra preocupação que permeia os debates sobre o uso de IA. A utilização inadvertida desses sistemas para decidir pode inadvertidamente, com base em inferências extraídas de sua base de treinamento, perpetuar preconceitos existentes na sociedade sem que tais circunstâncias estejam claras para o destinatário do pronunciamento jurisdicional sob uma cortina de “neutralidade”, violando diretamente cláusulas fundamentais constitucionais de igualdade e não discriminação.
A conhecida Lei de Amara, formulada pelo futurista e engenheiro norte-americano Roy Amara, afirma que os seres humanos tendem a superestimar os efeitos das novas tecnologias no curto prazo e, simultaneamente, subestimar seus impactos no longo prazo. Inicialmente, as expectativas podem ser exageradas e gerar desapontamento em que espera da tecnologia a panaceia, mas posteriormente os efeitos dessas tecnologias tornam-se muito mais significativos e profundos do que originalmente previsto, resultando em transformações substanciais na sociedade não antevistas ou, pior, negligenciadas. Estaríamos na iminência de um mundo novo — e, por consequência, de um Direito novo?
Alertas vem de todos os lados, de Chomsky a Streck, que nos abrem os olhos para o alto custo futuro dos contratos que estamos firmando no presente. E são essas provocações, num ambiente de muitas aplicações e poucos trilhos de segurança , que a atividade de regulação busca responder no mundo e no Brasil.
O objetivo deste artigo é, a partir de tais provocações, apresentar de que forma o quadro regulatório brasileiro tem se preparado para oferecer balizas éticas para a incorporação da inteligência artificial como ferramenta útil — e inescapável — para o aperfeiçoamento do serviço jurisdicional. Entre a “Síndrome de Frankenstein” e a obsolescência da intervenção humana no processamento e julgamento dos conflitos de interesse, pretende-se analisar brevemente de que modo instituições jurídicas brasileiras têm se mobilizado para estabelecer marcos regulatórios suficientemente precisos sobre o uso ético e responsável da inteligência artificial.
A Ordem dos Advogados do Brasil (OAB), ciente das implicações profissionais e éticas desse avanço tecnológico, já publicou recomendações específicas para orientar advogados sobre como empregar soluções baseadas em IA, destacando a importância de preservar valores fundamentais da advocacia como confidencialidade, independência técnica e responsabilidade na utilização desses sistemas.
No mesmo sentido, o Conselho Nacional de Justiça editou recentemente a Resolução nº 615, de 11 de março de 2025, estabelecendo diretrizes para o desenvolvimento, utilização e governança de soluções que utilizam recursos de inteligência artificial no âmbito do Poder Judiciário brasileiro. A norma busca, sobretudo, assegurar a transparência dos processos decisórios, a responsabilidade na gestão dos dados empregados e a explicabilidade suficiente para garantir que tais tecnologias sejam utilizadas em consonância com princípios constitucionais estruturantes, especialmente a segurança jurídica, evitando assim possíveis distorções, preconceitos ou perdas de legitimidade no exercício da jurisdição.
O risco apontado é real, sendo que a 1ª Câmara Criminal do Tribunal de Justiça do Estado do Paraná, em 12 de abril de 2025, não conheceu de recurso em sentido estrito relatado pelo desembargador Gamaliel Seme Scaff, cujas razões recursais continham nada menos do que quarenta e três referências a julgados inexistentes.
Situações semelhantes não são exclusividade da advocacia. A Corregedoria-Geral da Justiça do Maranhão apura caso que envolveu o uso massivo de IA generativa por um magistrado cuja média mensal de sentenças subiu de 80 para 969, resultando em sentenças reformadas por ausência de fundamentação ou aplicação de precedentes inexistentes. O STJ em recente decisão, no RESP n 2207929/MG, apontou uso de precedentes não existentes, e ainda no próprio STF, onde na Reclamação n 78.890, o Ministro Zanin destacou que as decisões citadas pelo reclamante não foram localizadas, determinando que fossem oficiados o Conselho Federal da OAB e a OAB da Bahia.
Dessa feita, denota-se que, além do bom senso, os advogados, promotores e julgadores devem revisar e conferir toda informação referenciada a partir do auxílio da IA. Destaco, por exemplo, a observação registrada em sentenças proferidas pelo juiz Flávio Augusto Martins Leite, do Tribunal de Justiça do DF, que anuncia: “Esta decisão foi produzida com auxilio de inteligência artificial. Toda a produção de IA foi conferida por ação humana, mas não é possível descartar totalmente a ocorrência de erros, considerando o estado inicial da tecnologia.”
O magistrado certamente é um dos precursores na aplicação da resolução 615 do CNJ, que nos termos do “Art. 33. Os usuários externos deverão ser informados, de maneira clara, acessível e objetiva, sobre a utilização de sistemas baseados em IA nos serviços que lhes forem prestados, devendo ser empregada linguagem simples, que possibilite a fácil compreensão por parte de pessoas não especializadas. § 1º A informação prevista no caput deste artigo deverá destacar o caráter consultivo e não vinculante da proposta de solução apresentada pela inteligência artificial, a qual sempre será submetida à análise e decisão final de uma autoridade competente, que exercerá a supervisão humana sobre o caso. § 3º A comunicação sobre o eventual uso da IA no texto de decisões judiciais será uma faculdade de seu signatário, observado o disposto no inciso IV do § 3º e o § 6º do art. 19 desta Resolução.” O esforço pela transparência é válido, desde que não sirva para eximir os magistrados da responsabilidade por erros cometidos pela automação, o que é reprovável e inadmissível.
Voltando ao bom senso, o advogado deveria ter avaliado a pertinência de substituir a sustentação oral humana, com entonações diferentes, gestos físicos e inflexões na defesa de sua tese, por uma voz metálica e desagradável, sem pessoalidade ou ponderação, e pior, tendo inclusive errado o tempo de apresentação, algo que talvez seria a única vantagem do uso da tecnologia.
Por fim, a resposta normativa brasileira, construída a partir do diálogo institucional e da escuta pública qualificada, demonstra maturidade regulatória e atenção às particularidades do sistema de justiça. A Resolução CNJ nº 615/2025 e a Recomendação nº 1/2024 da OAB são documentos estruturantes que, ao passo em que estabelecem limites claros para o uso ético da IA, também criam trilhas seguras para sua adoção gradual e responsável, privilegiando a autorregulação supervisionada, o controle interinstitucional e a rastreabilidade das decisões, em consonância com as melhores práticas internacionais.
A manutenção da racionalidade humana como núcleo indelegável do julgamento jurídico não é apenas um imperativo ético, mas uma exigência constitucional que resguarda valores como a imparcialidade, a ampla defesa e a motivação adequada das decisões judiciais. O uso de IA, por mais avançado que seja, não substitui a empatia e a responsabilidade próprias da jurisdição, exercida por pessoas detentoras de fração da soberania do Estado investidas na função de pôr conflitos de interesse a termo.