Autora: Karoline Barbosa Santos
O uso de tecnologias baseadas em inteligência artificial (IA) no sistema de Justiça brasileiro representa uma das maiores transformações dos últimos anos. A promessa de aumento da eficiência e redução da morosidade processual vem atraindo o interesse de tribunais e órgãos públicos. Entretanto, a aplicação de sistemas automatizados em atividades judiciais também traz à tona desafios éticos e jurídicos que exigem reflexão crítica e regulação adequada.
Diversos tribunais brasileiros utilizam soluções de IA para auxiliar em atividades repetitivas, como triagem de processos e organização jurisprudencial. Temos o Victor, no Supremo Tribunal Federal (STF), que identifica processos com potencial de repercussão geral. No Conselho Nacional de Justiça (CNJ), temos a Sinapses, que é uma plataforma colaborativa para desenvolvimento e compartilhamento de modelos de IA entre tribunais. E a Athos, no Superior Tribunal de Justiça (STJ), que cataloga temas jurídicos em decisões colegiadas.
Tais ferramentas têm contribuído para otimizar o trabalho do Judiciário, mas sua utilização ainda é incipiente e levanta preocupações quanto à confiabilidade, à justiça algorítmica e ao controle humano sobre os processos decisórios.
O exercício da advocacia também tem passado por transformações impulsionadas pela tecnologia. As ferramentas de inteligência artificial (IA) vêm sendo progressivamente incorporadas à rotina dos escritórios de advocacia, permitindo automatizar pesquisas jurídicas, revisar contratos, realizar análises preditivas e até mesmo redigir peças processuais. Tais recursos prometem ganhos de produtividade e acessibilidade.
Contudo, o uso da IA na elaboração de peças processuais também gera inquietações quanto à ética profissional, à responsabilidade do advogado e à qualidade da prestação jurisdicional.
Importante ressaltar que os sistemas de IA muitas vezes operam como “caixas-pretas”, com lógicas inacessíveis ou incompreensíveis aos usuários e operadores do Direito. Essa falta de transparência compromete o princípio da motivação das decisões judiciais e dificulta a fiscalização democrática. Adicionalmente, há casos em que a IA cria jurisprudência fictícia, com teor decisório favorável ao cenário descrito pelo usuário, sendo que, em muitas situações, essa jurisprudência não é verídica.
A delegação irrestrita da função redacional à máquina pode ferir o dever de diligência, pois o advogado é responsável legal e eticamente pelo conteúdo das peças que assina. Há uma demanda crescente por posicionamentos mais claros da OAB quanto ao uso de IA na advocacia. Normas específicas, guias de boas práticas e certificações tecnológicas podem ser instrumentos úteis para orientar o uso ético e responsável da IA por profissionais do Direito.
O uso de inteligência artificial por advogados na elaboração de peças processuais representa um avanço significativo na modernização da prática jurídica, ampliando a produtividade e democratizando o acesso a recursos técnicos. No entanto, essa transformação deve ser acompanhada de responsabilidade ética, supervisão humana qualificada e compromisso com a qualidade da prestação jurisdicional.
É essencial que o advogado continue exercendo seu papel como operador do Direito, responsável por interpretar a norma, construir argumentos e representar os interesses do cliente com autonomia e criatividade. A IA pode ser uma aliada — mas nunca deve substituir o julgamento jurídico humano.
Bibliografia
BRASIL. Projeto de Lei nº 21, de 2020. Marco Legal da Inteligência Artificial.
CONSELHO FEDERAL DA OAB. Lei nº 8.906, de 04 de julho de 1994. Código de Ética e Disciplina da Ordem dos Advogados do Brasil.
CONSELHO NACIONAL DE JUSTIÇA. Resolução nº 332/2020. Dispõe sobre o uso de inteligência artificial no Poder Judiciário.