Alucinação de IA e Litigância de Má-Fé: Quem Paga a Conta?
Alucinação de IA e Litigância de Má-Fé: Quem Paga a Conta?
A adoção de ferramentas de inteligência artificial generativa transformou a rotina de muitos escritórios de advocacia. A promessa de redigir petições em segundos é tentadora. No entanto, um perigo silencioso ronda essa facilidade: a alucinação de IA.
Quando um advogado utiliza uma IA para fundamentar uma peça e não verifica as fontes, ele assume um risco que vai além do erro técnico; ele entra no terreno perigoso da litigância de má-fé.
O que é Alucinação de IA?
Modelos de linguagem (LLMs) como o ChatGPT são treinados para prever a próxima palavra provável em uma frase, não para atuar como bancos de dados de fatos imutáveis ou repositórios oficiais de jurisprudência. Se você pedir a uma IA genérica uma decisão sobre um tema muito específico, e ela não encontrar dados exatos em seu treinamento, ela pode simplesmente inventar um precedente para satisfazer o usuário.
O resultado é visualmente perfeito: número do processo, nome do relator, data de julgamento e uma ementa juridicamente convincente. Porém, nada daquilo existe no mundo real.
O Risco da Litigância de Má-Fé
No Brasil, o Código de Processo Civil (CPC) é rigoroso. O Art. 80 define como litigante de má-fé aquele que:
- Deduz pretensão ou defesa contra texto expresso de lei ou fato incontroverso;
- Altera a verdade dos fatos;
- Procede de modo temerário em qualquer incidente ou ato do processo.
Apresentar ao juiz uma jurisprudência que não existe enquadra-se na tentativa de induzir o juízo a erro. Tribunais brasileiros já começaram a identificar e punir advogados que cometem esse equívoco, muitas vezes aplicando multas que variam entre 1% a 10% do valor da causa.
O Caso Schwartz (Mata v. Avianca)
O exemplo mais notório, que serviu de alerta global, ocorreu nos Estados Unidos. Um advogado utilizou o ChatGPT para pesquisar precedentes em um caso contra a companhia aérea Avianca. A IA inventou mais de seis casos inexistentes. O advogado anexou-os à petição. Ao ser questionado pelo juiz, o advogado consultou a IA novamente, que "confirmou" falsamente que os casos eram reais.
O desfecho foi uma multa de 5 mil dólares e um dano irreparável à reputação do escritório. Casos similares já começam a aparecer no judiciário brasileiro, inclusive no TSE.
Quem Paga a Conta?
A responsabilidade final é, invariavelmente, do advogado.
Os termos de uso das IAs generativas genéricas isentam as plataformas de responsabilidade sobre a veracidade das informações (elas são ferramentas de texto, não de pesquisa). O advogado tem o dever ético e técnico de supervisão sobre qualquer trabalho produzido sob sua assinatura, seja ele feito por um estagiário ou por um algoritmo.
Alegar "erro tecnológico" ou "falha da IA" não exclui a responsabilidade civil, nem impede a aplicação de multas processuais, muito menos evita processos éticos na OAB.
Como Usar IA com Segurança?
A IA não deve ser banida, mas sim utilizada com estratégia e supervisão. Para evitar riscos:
- Verificação Obrigatória: Nunca copie e cole uma citação de jurisprudência sem conferir o número do processo e o inteiro teor no site do Tribunal oficial.
- Prefira Legaltechs: Utilize ferramentas de IA desenvolvidas especificamente para o Direito, como a Veredicto.ai. Diferente de IAs genéricas, ferramentas especializadas são projetadas para buscar em bases reais e minimizar alucinações.
- Prompt Engineering: Ao usar IAs genéricas para rascunho, instrua o modelo a não inventar dados e peça apenas argumentos lógicos, deixando a pesquisa jurisprudencial para fontes confiáveis.
Conclusão
A tecnologia é uma alavanca poderosa para a produtividade jurídica, mas a credibilidade é o maior ativo de um advogado. A inteligência artificial deve empoderar o profissional, fornecendo agilidade, mas nunca deve substituir o critério humano de validação e a responsabilidade ética.