A Inteligência Artificial (IA) deixou de ser apenas um conceito e passou a fazer parte da rotina de profissionais de todas as áreas, e o direito não ficou de fora dessa transformação.
Hoje, já colhemos ganhos expressivos: pesquisas jurisprudenciais em segundos, traduções e revisões de textos técnicos, apoio na análise de documentos e até sugestões estratégicas para casos complexos.
Nos tribunais, a tecnologia impulsiona a eficiência processual. Um exemplo emblemático de aplicação bem-sucedida da IA no setor público é a Elis, desenvolvida pelo Tribunal de Justiça de Pernambuco (TJPE). Enquanto a triagem manual de cerca de 70 mil processos leva, em média, um ano e meio, a Elis é capaz de analisar mais de 80 mil em apenas 15 dias — um salto exponencial em eficiência e produtividade. Já nos escritórios, a IA libera tempo para que advogados e equipes jurídicas se concentrem no que realmente importa: pensar, criar, decidir.
Quando bem utilizada, a IA multiplica a produtividade e eleva a qualidade. Mas — e aqui está o ponto — não basta saber que ela funciona. É preciso entender como funciona.
O desafio pouco discutido
Por trás de respostas rápidas, bem estruturadas e convincentes, existe um conjunto de limitações técnicas que precisa ser conhecido.
Chamamos isso, neste texto, de “lado B” da inteligência artificial, um território de riscos que, no contexto jurídico, pode afetar a segurança da informação, distorcer análises e até gerar prejuízos concretos.
Para usar a IA de forma consciente, o primeiro passo é dominá-la: compreender seus pontos fortes e, principalmente, suas vulnerabilidades.
Como e por que a IA erra?
A qualidade dos comandos enviados à IA — bem formulados, precisos e contextualizados — influencia diretamente o resultado. Mas há fatores ainda mais estruturais por trás das falhas desses sistemas, que independem da forma como interagimos com eles.
Entre as principais causas de erro:
- Limitação dos dados e informações disponíveis
A IA é treinada a partir de grandes conjuntos de dados, que podem estar desatualizados, mal distribuídos ou conter vieses. Isso compromete a qualidade das respostas e pode perpetuar preconceitos e desigualdades. - Prompts mal formulados
A maneira como interagimos com a IA influencia diretamente o resultado. Comandos vagos, genéricos ou mal estruturados reduzem a eficácia da resposta gerada. - Natureza probabilística dos modelos
Modelos de IA generativa, como o ChatGPT, funcionam com base em probabilidades estatísticas e não possuem compromisso inerente com a verdade. Isso significa que mesmo respostas bem estruturadas podem estar incorretas ou incompletas. - Limitação da janela de contexto
Essa limitação define o quanto de informação a IA consegue processar de uma vez.
Imagine anexar todo o Código de Processo Civil e pedir a análise de um caso específico: o sistema pode “deixar de lado” artigos relevantes, porque priorizou outras informações do caso ou do próprio código.
Resultado? Uma análise aparentemente sólida, mas incompleta — e, no Direito, detalhes são decisivos. - Viés algorítmico
Se os dados usados no treinamento forem tendenciosos, o modelo tenderá a reproduzir e amplificar esses mesmos vieses. No campo jurídico, isso pode resultar em análises parciais ou em reforço de estereótipos.
Quando falamos em tipos de erros recorrentes, temos:
- Alucinações
O termo pode soar inusitado, mas é amplamente utilizado no campo da IA. Alucinar, aqui, significa “inventar” informações que não existem e apresentá-las com total confiança.
Não é um defeito de programação: é o próprio funcionamento da IA generativa (como ChatGPT, Claude, Gemini, Perplexity e outros), que gera textos com base em probabilidade, sem compromisso com a realidade.
Para um advogado, isso pode significar citar jurisprudência inexistente, criar argumentos sem base legal ou distorcer um precedente. - Respostas incompletas
A limitação da janela de contexto pode fazer com que a IA ignore trechos importantes de um texto ou de um documento extenso que lhe são fornecidos. O resultado é uma resposta aparentemente completa, mas que ignora detalhes essenciais — muitas vezes decisivos no raciocínio jurídico. - Reprodução de vieses
Todo sistema de IA é treinado com base em grandes volumes de dados. Se esses dados forem imprecisos, enviesados ou pouco representativos, o resultado refletirá exatamente esses problemas, reforçando desigualdades, tendenciosidade e preconceitos.
O mais crítico: na maior parte das plataformas, não é possível auditar quais dados foram usados nem como o modelo foi treinado. Isso significa que, muitas vezes, não é possível avaliar se o sistema está tecnicamente qualificado para realizar determinada tarefa.
No Direito, isso pode levar a conclusões imprecisas, análises parciais e até reprodução de preconceitos estruturais, sendo inegociável a atenção redobrada de quem utiliza a ferramenta.
O olhar do CNJ: Resolução nº 615/2025
A Resolução do Conselho Nacional de Justiça (CNJ) nº 615/2025 foi criada para regular o uso da IA no Poder Judiciário, mas seus princípios podem (e devem) ser aplicados também na advocacia.
O texto normativo impõe salvaguardas como:
- proibição de decisões autônomas por sistemas (Art. 19, §3, inciso II);
- supervisão humana em todas as etapas (art. 2º, inciso V);
- transparência e explicabilidade sobre a tecnologia utilizada (art. 3, inciso II e art. 22, § 3).
O objetivo é preservar segurança, confiabilidade e legitimidade.
Mesmo quando transpostos ao exercício da advocacia, os princípios da Resolução mantêm sua coerência: o papel da supervisão humana é irrenunciável. A tecnologia pode auxiliar, mas a responsabilidade e a palavra final devem permanecer com o profissional.
O lado A da Inteligência Artificial impressiona: automação, produtividade, soluções rápidas.
Mas, como em um bom disco de vinil, é no lado B que se revela o artista de verdade, em que moram as faixas menos comerciais, mais cruas e, por vezes, imperfeitas. Assim também são os bastidores da IA: é ali que surgem as falhas — algumas sutis, outras capazes de gerar impactos significativos.
A Resolução CNJ nº 615/2025 nos lembra que, por mais sofisticada que seja a tecnologia, seu uso precisa ser guiado por atenção, espírito crítico, maturidade e, sobretudo, domínio técnico.
O que isso significa na prática
- Advogados passam a exercer um papel ativo na curadoria do conteúdo gerado por IA: supervisionam, revisam os resultados e avaliam a confiabilidade das ferramentas utilizadas.
- Empresas precisam estruturar contratos adequados com fornecedores de tecnologia, revisando cláusulas de responsabilidade, sigilo e privacidade. Investir em letramento dos usuários em IA, além da criação de políticas de uso interno de inteligência artificial, a educação no uso e orientações, fazem parte do “pacote” de boas práticas de inovação para preservar segurança e confiabilidade nas entregas dos serviços prestados.
- Cidadãos e usuários em geral devem compreender que a IA responde com base nos comandos recebidos, e que inputs imprecisos, longos, mal formulados ou sem contexto aumentam significativamente as chances de erro.
Seguindo ainda a analogia do vinil, ter a vitrola mais sofisticada não garante a melhor música. É preciso uma boa coleção de discos, sensibilidade para escolher cada faixa e sabedoria para usá-los no momento certo. Em todos esses cenários, a IA pode ser parceira, mas é a inteligência humana que dá sentido, direção e transforma tecnologia em verdadeiro valor.