Modelo Fotos Site
Principal
Seta
O lado B da Inteligência Artificial: erros, riscos e o posicionamento do CNJ

O lado B da Inteligência Artificial: erros, riscos e o posicionamento do CNJ

08/08/2025

Autores

Rafael Gouveia - Associado

A Inteligência Artificial (IA) deixou de ser apenas um conceito e passou a fazer parte da rotina de profissionais de todas as áreas, e o direito não ficou de fora dessa transformação.

Hoje, já colhemos ganhos expressivos: pesquisas jurisprudenciais em segundos, traduções e revisões de textos técnicos, apoio na análise de documentos e até sugestões estratégicas para casos complexos.

Nos tribunais, a tecnologia impulsiona a eficiência processual[1]. Nos escritórios, libera tempo para que advogados e equipes jurídicas se concentrem no que realmente importa: pensar, criar, decidir.

Quando bem utilizada, a IA multiplica a produtividade e eleva a qualidade. Mas — e aqui está o ponto — não basta saber que ela funciona. É preciso entender como funciona.

O desafio pouco discutido

Por trás de respostas rápidas, bem estruturadas e convincentes, existe um conjunto de limitações técnicas que precisa ser conhecido.

Chamamos isso, neste texto, de “lado B” da inteligência artificial, um território de riscos que, no contexto jurídico, pode afetar a segurança da informação, distorcer análises e até gerar prejuízos concretos.

Para usar a IA de forma consciente, o primeiro passo é dominá-la: compreender seus pontos fortes e, principalmente, suas vulnerabilidades.

Por que a IA erra?

A qualidade dos comandos enviados à IA — bem formulados, precisos e contextualizados — influencia diretamente o resultado. Mas há fatores ainda mais estruturais por trás das falhas desses sistemas, que independem da forma como interagimos com eles.

  • Alucinações
    O termo pode soar inusitado, mas é amplamente utilizado no campo da IA. Alucinar, aqui, significa “inventar” informações que não existem e apresentá-las com total confiança.
    Não é um defeito de programação: é o próprio funcionamento da IA generativa (como ChatGPT, Claude, Gemini, Perplexity e outros), que cria texto novo sem compromisso inerente com a realidade.
    Para um advogado, isso pode significar citar jurisprudência inexistente, criar argumentos sem base legal ou distorcer um precedente.
  • Limitação da janela de contexto
    Essa limitação define o quanto de informação a IA consegue processar de uma vez.
    Imagine anexar todo o Código de Processo Civil e pedir a análise de um caso específico: partes relevantes podem simplesmente “ficar de fora” da resposta, porque o sistema priorizou outras informações.
    Resultado? Uma análise aparentemente sólida, mas incompleta — e, no Direito, detalhes são decisivos.
  • Viés algoritmo                                                                                                                                                                                             Todo sistema de IA é treinado com base em grandes volumes de dados. Se esses dados forem imprecisos, enviesados ou pouco representativos, o resultado refletirá exatamente esses problemas, reforçando desigualdades, tendenciosidade e preconceitos.O mais crítico: na maior parte das plataformas, não é possível auditar quais dados foram usados nem como o modelo foi treinado. Isso significa que, muitas vezes, não é possível avaliar se o sistema está tecnicamente qualificado para realizar determinada tarefa.

    No Direito, isso pode levar a conclusões imprecisas, análises parciais e até reprodução de preconceitos estruturais, sendo inegociável a atenção redobrada de quem utiliza a ferramenta.

Todo sistema de IA é treinado com base em grandes volumes de dados. Se esses dados forem imprecisos, enviesados ou pouco representativos, o resultado refletirá exatamente esses problemas, reforçando desigualdades, tendenciosidade e preconceitos.

O mais crítico: na maior parte das plataformas, não é possível auditar quais dados foram usados nem como o modelo foi treinado. Isso significa que, muitas vezes, não é possível avaliar se o sistema está tecnicamente qualificado para realizar determinada tarefa.

No Direito, isso pode levar a conclusões imprecisas, análises parciais e até reprodução de preconceitos estruturais, sendo inegociável a atenção redobrada de quem utiliza a ferramenta.

O olhar do CNJ: Resolução nº 615/2025

A Resolução do Conselho Nacional de Justiça (CNJ) nº 615/2025 foi criada para regular o uso da IA no Poder Judiciário, mas seus princípios podem (e devem) ser aplicados também na advocacia.

O texto normativo impõe salvaguardas como:

  • proibição de decisões autônomas por sistemas (Art. 19, §3, inciso II);
  • supervisão humana em todas as etapas (art. 2º, inciso V);
  • transparência e explicabilidade sobre a tecnologia utilizada (art. 3, inciso II e art. 22, § 3).

O objetivo é preservar segurança, confiabilidade e legitimidade.

Mesmo quando transpostos ao exercício da advocacia, os princípios da Resolução mantêm sua coerência: o papel da supervisão humana é irrenunciável. A tecnologia pode auxiliar, mas a responsabilidade e a palavra final devem permanecer com o profissional.

O que isso significa na prática

  • Advogados passam a exercer um papel ativo na curadoria do conteúdo gerado por IA: supervisionam, revisam os resultados e avaliam a confiabilidade das ferramentas utilizadas.
  • Empresas precisam estruturar contratos adequados com fornecedores de tecnologia, revisando cláusulas de responsabilidade, sigilo e privacidade.
  • Cidadãos e usuários em geral devem compreender que a IA responde com base nos comandos recebidos, e que inputs imprecisos, mal formulados ou sem contexto aumentam significativamente as chances de erro.

Em todos esses contextos, a IA pode apoiar. Mas é a inteligência humana que transforma tecnologia em ganho.

Conclusão:

O lado A da Inteligência Artificial impressiona: automação, produtividade, soluções rápidas.

Mas, como em um bom disco de vinil, é no lado B que se revela o artista de verdade, onde moram as faixas menos comerciais, mais cruas e, por vezes, imperfeitas. Assim também são os bastidores da IA: é ali que surgem as falhas — algumas sutis, outras capazes de gerar impactos significativos.

A Resolução CNJ nº 615/2025 nos lembra que, por mais sofisticada que seja a tecnologia, seu uso precisa ser guiado por atenção, espírito crítico, maturidade e, sobretudo, domínio técnico.

[1] Um exemplo emblemático de aplicação bem-sucedida da IA no setor público é a Elis, desenvolvida pelo Tribunal de Justiça de Pernambuco (TJPE). Enquanto a triagem manual de cerca de 70 mil processos leva, em média, um ano e meio, a Elis é capaz de analisar mais de 80 mil em apenas 15 dias — um salto exponencial em eficiência e produtividade.

Continue lendo

Ver todas as publicações
Seta
Seta