26 de março de 2026
Politica

A Inteligência Artificial pode produzir laudos periciais?

A 5ª Turma do STJ está apreciando o HC 1.059.475, no qual a defesa contesta a validade de um “laudo” elaborado com inteligência artificial generativa (Gemini e Perplexity) que contraria o laudo elaborado pelo perito oficial. A peculiaridade do caso foi reconhecida na decisão do Ministro Reynaldo Soares da Fonseca que concedeu medida liminar para suspender a tramitação do processo penal no Juízo de origem até o julgamento do habeas corpus.

A discussão da matéria é urgente diante do aumento vertiginoso do uso de ferramentas de inteligência artificial na persecução penal. Antes do lançamento oficial do ChatGPT, as discussões sobre uso da inteligência artificial estavam centradas nos limites desse uso. Pouco depois disso já operavam em pleno vapor diversos modelos, alguns distribuídos mediante pagamento de mensalidades, outros desenvolvidos para uso interno de empresas e órgãos públicos. De lá para cá, a admissão do uso de inteligência artificial é cada vez mais presente no dia a dia forense, seja pelo Judiciário, Ministério Público ou até pelas partes.

Obviamente, não se pretende propor voltar ao passado e banir a inteligência artificial, mas o uso deve ser ético e lícito.

O uso ético-moral depende de pelo menos dois fatores. Primeiro, da observância da dignidade humana, fundamento da República Federativa do Brasil (art. 1º, III, da CRFB), o que significa que os seres humanos não devem ser instrumentalizados pelo caminho, pois são fins em si mesmos, não meros instrumentos para atingir objetivos. Isso certamente vale para todos os seres humanos envolvidos na persecução penal, inclusive para impedir que determinadas categorias de servidores públicos sejam substituídas por modelos de inteligência artificial. Segundo, a inteligência artificial deve ser utilizada somente como ferramenta auxiliar, nunca como fonte a ser copiada e colada integralmente. O uso ético, nesse aspecto, proíbe comportamentos que, em atividades acadêmicas, seriam chamados de plágio ou cola. Do mesmo modo que na academia, o uso deveria vir provado com a anexação do registro completo de prompts utilizados para permitir a impugnação de eventuais usos antiéticos, imprecisos ou errôneos.

O uso lícito depende de pelo menos outros três fatores. Primeiro, a inteligência artificial deve ser utilizada nos estritos limites da legislação vigente e válida (constitucional e convencional), pois a admissão de um elemento como prova deve ser condicionada ao cumprimento de todos os requisitos legais sob pena de o processo penal ser destituído da feição de garantia constitucional de direitos. Segundo, os funcionários públicos são os únicos responsáveis pelo conteúdo correto dos documentos jurídicos, de modo que a realização de atos por inteligência artificial caracterizaria ilegal e inconstitucional tentativa de evasão da responsabilidade penal, civil e administrativa dos agentes e do Estado pelos atos praticados. Terceiro, esse uso nem mesmo pode usurpar atribuições de funcionários ou órgãos públicos. Assim, por exemplo, é indevida a implementação de modelos de inteligência artificial no Judiciário para complementar a argumentação ou as provas produzidas pelo Ministério Público, pois usurparia atribuições de outro órgão e ainda subverteria o sistema acusatório.

Não bastassem os limites éticos e jurídicos, há um limite lógico: laudos periciais são elaborados por pessoas com formação na área específica de conhecimento que formula explicações sobre as probabilidades de ocorrência de fatos ou circunstâncias de acordo com determinadas provas já produzidas. Máquinas, por outro lado, não são experts. A inteligência artificial utilizada para a elaboração do pretenso “laudo” é apenas a atividade executada por um modelo computacional que gera respostas a comandos dados pelos usuários, tomando como parâmetros não as provas, mas os prompts, e que tem a pretensão de provar os fatos, não de explicá-los com base nas provas. Enfim, os “laudos” elaborados por inteligência artificial generativa frequentemente são tentativas de criação de provas documentais após a ocorrência de fatos, apesar de provas documentais serem exclusivamente aquelas pré-existentes aos fatos (p. ex. meia nota fiscal para sonegar tributos) ou que são criados para praticar o crime (p. ex. divulgação de informação falsa sobre instituição financeira).

Por todas essas razões, a discussão ultrapassa um episódio isolado e impõe ao sistema de justiça uma reflexão profunda sobre os limites estruturais do uso da inteligência artificial na persecução penal. O que está em jogo não é a utilidade da tecnologia em si, mas a preservação das garantias que sustentam o devido processo legal. O julgamento em curso no Superior Tribunal de Justiça desponta como um momento decisivo para indicar como o Judiciário brasileiro pretende enfrentar essa nova fronteira, se como mero entusiasta da inovação acrítica ou como guardião das balizas éticas e jurídicas. A inteligência artificial pode auxiliar a atividade humana, mas não substituir o juízo técnico de profissionais habilitados, sob pena de ejetar os peritos da persecução penal e abrir caminho para a substituição de outros atores do sistema penal, não por divergência probatória, mas pela impossibilidade de a máquina ser perita em qualquer coisa que seja.

 

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *