Juiz busca no Google ‘relator’ citado com uso de IA em ação trabalhista e acha cervejeiro

Uma trabalhadora foi multada em mais de R$ 3, 7 mil em Santa Catarina por ter usado Inteligência Artificial para incluir jurisprudências ‘inventadas’, citações falsas e até decisão de relator inexistente em uma ação trabalhista contra o hotel onde havia trabalhado como saladeira.
O caso foi julgado pelo juiz Daniel Carvalho Martins, da Vara do Trabalho de Concórdia – município com cerca de 90 mil habitantes a 480 quilômetros de Florianópolis.
O juiz consultou o Google para tentar localizar o nome do relator lançado na ação, mas encontrou um comerciante de Ponta Grossa (PR), dono de um bar especializado em ‘atendimento a consumidores de cerveja gelada’.
A ação foi aberta em julho de 2025. A saladeira requeria o pagamento de verbas trabalhistas supostamente devidas após a rescisão do contrato, incluindo horas extras e outros direitos.
A defesa do hotel apontou incorreções no texto e solicitou a improcedência dos pedidos de sua ex- colaboradora. O juiz ordenou que a advogada da autora se manifestasse. A profissional sustentou que as imprecisões foram resultado de ‘mero erro material’.
O magistrado extinguiu o processo sem resolver o mérito, ou seja, sem julgar se a saladeira tinha direito ou não aos direitos trabalhistas que pleiteava.
Em seu voto, o juiz destacou que a questão vai além de um erro material e reforça as alegações do hotel de que o processo foi produzido por aplicação de inteligência artificial sem qualquer verificação humana, “o que para esse magistrado configura um ato processual inexistente”. Ele considerou a petição inapta.
O magistrado citou diretrizes da Recomendação 001/2024 do Conselho Federal da Ordem dos Advogados do Brasil, sobre o uso de ‘IA generativa na prática jurídica’. Ele ressaltou que é vedada a delegação de atos privativos da profissão sem supervisão qualificada.
“O uso indiscriminado de aplicações de Inteligência Artificial generativa nas atividades jurídicas causa prejuízos irreparáveis, uma vez que tais modelos generativos apresentam riscos de confabulação/alucinação”, concluiu.
Além de extinguir o processo, o juiz multou a trabalhadora por litigância de má-fé.
Daniel Carvalho Martins também determinou o envio de um ofício à Subseção de Concórdia da OAB-SC para ‘ciência dos fatos narrados e adoção das providências que entender cabíveis’.
A trabalhadora pode recorrer da decisão.
‘Comandos humanos’
Há diversos casos no Brasil envolvendo o uso inadequado da inteligência artificial na advocacia. Um deles foi citado pelo juiz Martins em sua decisão. Ele menciona que a Primeira Turma do Supremo Tribunal Federal (STF), em processo relatado pelo ministro Cristiano Zanin, negou seguimento a uma reclamação constitucional cuja petição mencionava julgados inexistentes e súmulas vinculantes com conteúdos incorretos.
Em setembro, o Tribunal Regional do Trabalho da 2.ª Região (São Paulo) multou outra trabalhadora por litigância de má-fé devido ao uso de inteligência artificial.
A advogada responsável pelo processo afirmou que “não se atentou em retirar tais entendimentos que foram produzidos de forma incorreta”.
O juiz-relator do acórdão, João Forte Júnior, destacou, entretanto, que não é ‘minimamente’ razoável atribuir culpa à inteligência artificial, uma vez que ela depende de comandos humanos.
“A utilização de ferramentas de IA não exime a parte de sua responsabilidade pelo conteúdo apresentado”, advertiu.
