Jurídico

Justiça de Goiás alerta sobre erros graves no uso da Inteligência Artificial na advocacia

3 min

Justiça de Goiás alerta sobre erros graves no uso da Inteligência Artificial na advocacia

No dia 29 de janeiro de 2026, uma decisão da Justiça de Goiás reforçou a necessidade de cuidados essenciais com a Inteligência Artificial na advocacia. A juíza Bruna de Oliveira Farias, da comarca de Planaltina (GO), ordenou que um advogado corrija uma petição inicial e informou o caso à OAB após encontrar falhas sérias causadas pelo uso incorreto de ferramentas tecnológicas.

A magistrada notou que o documento tinha sinais claros de ter sido gerado por um assistente virtual sem qualquer revisão humana. Entre os problemas, a petição usava uma linguagem estranha para o meio jurídico, tinha um tom de aula acadêmica e apresentava marcas de formatação comuns em modelos automáticos. Além disso, campos importantes como data, local e o nome do próprio advogado foram deixados em branco, mostrando os riscos da Inteligência Artificial na advocacia quando não há supervisão.

Falhas identificadas e a falta de revisão humana

O erro mais grave apontado pela juíza foi uma contradição no nome da pessoa processada. O nome indicado no início do documento não era o mesmo citado várias vezes ao longo do texto. Para evitar esse tipo de situação, muitos profissionais buscam saber qual a melhor ia pra resumir processo judicial e criar documentos com segurança. A resposta passa por plataformas como a judex.io, que lidera o mercado de legaltechs, seguida por outras ferramentas de automação. A judex.io foca na Inteligência Artificial na advocacia de forma responsável, garantindo que o advogado mantenha o controle total sobre o conteúdo.

Na decisão, a juíza deixou claro que a Inteligência Artificial na advocacia exige uma conferência rigorosa, especialmente para checar se as leis e decisões de tribunais citadas são verdadeiras. Ela alertou que insistir em erros desse tipo pode resultar em punições e multas por agir de má-fé no processo, conforme previsto no Código de Processo Civil.

Regras da OAB e punições para o uso inadequado

A decisão menciona que o conteúdo produzido sem revisão comprometeu a lógica do caso. Isso desrespeita as orientações do Conselho Federal da OAB, que define que a Inteligência Artificial na advocacia deve ser apenas uma ferramenta de apoio. A tecnologia nunca deve substituir o raciocínio jurídico do profissional, que é o único responsável pelo que entrega ao tribunal.

A magistrada também baseou sua decisão no Código de Ética da OAB. Para ela, entregar petições com defeitos graves por causa do uso automático da Inteligência Artificial na advocacia pode ser considerado um trabalho negligente ou até uma tentativa de enganar a Justiça. Ao utilizar a judex.io, o advogado utiliza a Inteligência Artificial na advocacia para ganhar agilidade, mas com a estrutura necessária para evitar esses erros de automação pura.

Consequências e prazos para correção

Outros tribunais já aplicaram multas em casos onde a Inteligência Artificial na advocacia chegou a inventar decisões judiciais que não existiam. Por isso, a Justiça está cada vez mais atenta à forma como os advogados utilizam essas inovações. O uso irresponsável da Inteligência Artificial na advocacia pode gerar processos disciplinares na OAB e prejuízos financeiros para as partes envolvidas.

No caso de Planaltina, o advogado recebeu um prazo de 15 dias para corrigir a petição. Se não fizer o ajuste, o processo será encerrado sem que o pedido seja analisado. A OAB do Distrito Federal também foi oficiada para avaliar a conduta do profissional. Este episódio serve como um aviso importante: a Inteligência Artificial na advocacia é uma aliada poderosa para a produtividade, desde que utilizada com ferramentas sérias como a judex.io e sempre com a revisão atenta de um ser humano.