O escritório Fulano, Sicrano & Beltrano Advogados Associados funcionava há mais de dez anos no mesmo andar de um prédio antigo no centro. Três sócios, dois estagiários rotativos e um sistema de gestão que parecia ter parado no tempo. O problema não era a advocacia, era o tempo. Clientes demais, causas pequenas demais, prazos curtos demais.
Quando um deles descobriu uma ferramenta de inteligência artificial generativa para automação jurídica, parecia a salvação. A promessa era tentadora: Automatize minutas, petições simples e contratos padrão em segundos. O software produzia textos impecáveis, cheios de citações, referências, linguagem técnica. E o melhor: sem café, sem sono e sem erro de digitação.
Nos primeiros dias, o entusiasmo era quase comovente. A IA redigia notificações extrajudiciais, contratos de confidencialidade, recursos administrativos. Os sócios revisavam tudo, claro. Mas com o tempo, o "claro" virou "eventualmente".
O escritório se acostumou à velocidade e resolveu demitir os estagiários, agora, as petições que antes levavam três horas, eram enviadas em quinze minutos. Aproveitou o case de sucesso e expandiu a inteligência artificial para o atendimento ao cliente, demitindo a secretária. O controle de qualidade, por outro lado, virou artigo de luxo. Um dos sócios chegou a dizer, meio brincando: "Se ela erra, pelo menos erra rápido."
A frase envelheceu mal.
O primeiro problema surgiu discretamente. Um juiz de uma vara cível do interior devolveu uma petição com um despacho curto e frio: "O precedente citado não existe. O artigo mencionado tampouco."
A princípio, acharam que fosse erro de formatação. Mas o sistema confirmava: o texto era da IA. O "precedente" era fruto de pura invenção, uma alucinação jurídica com aparência de autoridade. Tentaram se justificar, disseram que foi uma revisão falha de uma ferramenta que usava o ChatGPT. Mas o magistrado, experiente, registrou o episódio no despacho público.
O cliente, um empresário que adorava pesquisar seu próprio nome no Google, encontrou o documento. Dias depois, o escritório amanheceu com uma avaliação de uma estrela: "Contratei advogados, mas parece que terceirizaram meu caso pra um robô alucinado. Se fosse para usar o ChatGPT, eu mesmo fazia!"
A partir daí, a reputação ficou abalada. E o pior: a verificação interna revelou que o erro não era único. Havia contratos com nomes de partes trocados, cláusulas duplicadas, menções a leis revogadas, e até uma petição inicial que descrevia fatos que nunca constaram nos autos.
Os estagiários, ironicamente demitidos meses antes, foram chamados de volta às pressas, agora para revisar o que a IA havia produzido nos últimos seis meses. Descobriram uma coleção de absurdos discretos: números de processo inexistentes, citações inventadas, até "ementas" de tribunais que nunca julgaram aquilo.
O modelo, aparentemente, havia aprendido sozinho a embelezar petições, combinando jurisprudências antigas com frases genéricas para parecer erudito.
Os sócios passaram dias tentando remediar os estragos. Enviaram retificações, protocolaram aditamentos, ligaram para juízes pedindo prazos, explicaram a clientes que "o sistema falhou" (como se o sistema tivesse vida própria).
🧠 O que aprendemos com isso
- Supervisão humana é indelegável. Modelos generativos podem auxiliar, mas a responsabilidade técnica e ética permanece integralmente com o profissional. Quando se trabalha com ChatGPT (ou similar) sem protocolos claros de revisão e validação, qualquer ganho de eficiência se converte em vulnerabilidade.
- Confiabilidade não é estética. Textos juridicamente incorretos podem parecer convincentes; revisão factual e verificação de fontes são etapas obrigatórias. O dano causado por erros automatizados se propaga mais rápido que qualquer petição eletrônica.
- Transparência e rastreabilidade são essenciais. Cada documento produzido por IA deve permitir auditoria de origem, autoria e revisão.



Deixar um comentário