A Inteligência Artificial (IA) deixou de ser apenas um conceito e passou a fazer parte da rotina de profissionais de todas as áreas, e o direito não ficou de fora dessa transformação.
Hoje, já colhemos ganhos expressivos: pesquisas jurisprudenciais em segundos, traduções e revisões de textos técnicos, apoio na análise de documentos e até sugestões estratégicas para casos complexos.
Nos tribunais, a tecnologia impulsiona a eficiência processual[1]. Nos escritórios, libera tempo para que advogados e equipes jurídicas se concentrem no que realmente importa: pensar, criar, decidir.
Quando bem utilizada, a IA multiplica a produtividade e eleva a qualidade. Mas — e aqui está o ponto — não basta saber que ela funciona. É preciso entender como funciona.
O desafio pouco discutido
Por trás de respostas rápidas, bem estruturadas e convincentes, existe um conjunto de limitações técnicas que precisa ser conhecido.
Chamamos isso, neste texto, de “lado B” da inteligência artificial, um território de riscos que, no contexto jurídico, pode afetar a segurança da informação, distorcer análises e até gerar prejuízos concretos.
Para usar a IA de forma consciente, o primeiro passo é dominá-la: compreender seus pontos fortes e, principalmente, suas vulnerabilidades.
Por que a IA erra?
A qualidade dos comandos enviados à IA — bem formulados, precisos e contextualizados — influencia diretamente o resultado. Mas há fatores ainda mais estruturais por trás das falhas desses sistemas, que independem da forma como interagimos com eles.
- Alucinações
O termo pode soar inusitado, mas é amplamente utilizado no campo da IA. Alucinar, aqui, significa “inventar” informações que não existem e apresentá-las com total confiança.
Não é um defeito de programação: é o próprio funcionamento da IA generativa (como ChatGPT, Claude, Gemini, Perplexity e outros), que cria texto novo sem compromisso inerente com a realidade.
Para um advogado, isso pode significar citar jurisprudência inexistente, criar argumentos sem base legal ou distorcer um precedente. - Limitação da janela de contexto
Essa limitação define o quanto de informação a IA consegue processar de uma vez.
Imagine anexar todo o Código de Processo Civil e pedir a análise de um caso específico: partes relevantes podem simplesmente “ficar de fora” da resposta, porque o sistema priorizou outras informações.
Resultado? Uma análise aparentemente sólida, mas incompleta — e, no Direito, detalhes são decisivos. - Viés algoritmo Todo sistema de IA é treinado com base em grandes volumes de dados. Se esses dados forem imprecisos, enviesados ou pouco representativos, o resultado refletirá exatamente esses problemas, reforçando desigualdades, tendenciosidade e preconceitos.O mais crítico: na maior parte das plataformas, não é possível auditar quais dados foram usados nem como o modelo foi treinado. Isso significa que, muitas vezes, não é possível avaliar se o sistema está tecnicamente qualificado para realizar determinada tarefa.
No Direito, isso pode levar a conclusões imprecisas, análises parciais e até reprodução de preconceitos estruturais, sendo inegociável a atenção redobrada de quem utiliza a ferramenta.
Todo sistema de IA é treinado com base em grandes volumes de dados. Se esses dados forem imprecisos, enviesados ou pouco representativos, o resultado refletirá exatamente esses problemas, reforçando desigualdades, tendenciosidade e preconceitos.
O mais crítico: na maior parte das plataformas, não é possível auditar quais dados foram usados nem como o modelo foi treinado. Isso significa que, muitas vezes, não é possível avaliar se o sistema está tecnicamente qualificado para realizar determinada tarefa.
No Direito, isso pode levar a conclusões imprecisas, análises parciais e até reprodução de preconceitos estruturais, sendo inegociável a atenção redobrada de quem utiliza a ferramenta.
O olhar do CNJ: Resolução nº 615/2025
A Resolução do Conselho Nacional de Justiça (CNJ) nº 615/2025 foi criada para regular o uso da IA no Poder Judiciário, mas seus princípios podem (e devem) ser aplicados também na advocacia.
O texto normativo impõe salvaguardas como:
- proibição de decisões autônomas por sistemas (Art. 19, §3, inciso II);
- supervisão humana em todas as etapas (art. 2º, inciso V);
- transparência e explicabilidade sobre a tecnologia utilizada (art. 3, inciso II e art. 22, § 3).
O objetivo é preservar segurança, confiabilidade e legitimidade.
Mesmo quando transpostos ao exercício da advocacia, os princípios da Resolução mantêm sua coerência: o papel da supervisão humana é irrenunciável. A tecnologia pode auxiliar, mas a responsabilidade e a palavra final devem permanecer com o profissional.
O que isso significa na prática
- Advogados passam a exercer um papel ativo na curadoria do conteúdo gerado por IA: supervisionam, revisam os resultados e avaliam a confiabilidade das ferramentas utilizadas.
- Empresas precisam estruturar contratos adequados com fornecedores de tecnologia, revisando cláusulas de responsabilidade, sigilo e privacidade.
- Cidadãos e usuários em geral devem compreender que a IA responde com base nos comandos recebidos, e que inputs imprecisos, mal formulados ou sem contexto aumentam significativamente as chances de erro.
Em todos esses contextos, a IA pode apoiar. Mas é a inteligência humana que transforma tecnologia em ganho.
Conclusão:
O lado A da Inteligência Artificial impressiona: automação, produtividade, soluções rápidas.
Mas, como em um bom disco de vinil, é no lado B que se revela o artista de verdade, onde moram as faixas menos comerciais, mais cruas e, por vezes, imperfeitas. Assim também são os bastidores da IA: é ali que surgem as falhas — algumas sutis, outras capazes de gerar impactos significativos.
A Resolução CNJ nº 615/2025 nos lembra que, por mais sofisticada que seja a tecnologia, seu uso precisa ser guiado por atenção, espírito crítico, maturidade e, sobretudo, domínio técnico.
[1] Um exemplo emblemático de aplicação bem-sucedida da IA no setor público é a Elis, desenvolvida pelo Tribunal de Justiça de Pernambuco (TJPE). Enquanto a triagem manual de cerca de 70 mil processos leva, em média, um ano e meio, a Elis é capaz de analisar mais de 80 mil em apenas 15 dias — um salto exponencial em eficiência e produtividade.