Carregando...
Inteligência Artificial

A Inteligência Artificial vai dominar o Direito?

Você já parou para pensar em quantas tarefas executadas por departamentos jurídicos poderiam ser substituídas por uma inteligência artificial? Se você já refletiu sobre isso, em algum momento deve ter pensado que, em breve, os departamentos jurídicos não existirão mais. Mas será mesmo?
16.06.2023 por dcom
Foto colaborador

 

O que dizem as previsões

Muito tem se especulado sobre o fato de que a Inteligência Artificial (IA) vai substituir diversas profissões. Um relatório elaborado pelo Goldman Sachs [1] revelou que as IA devem substituir 300 milhões de empregos no mundo, destacando o percentual de cada área que deve ser impactada nos Estados Unidos:

Os números apresentados causam incerteza em todos mercados, mas, em especial, no jurídico, cotado para ser um dos mais afetados. Por isso, é necessário questionar quais tarefas desempenhadas por advogados, juízes, promotores e professores podem, de fato, ser automatizadas.

A resposta à pergunta parece estar relacionada ao estado da arte das tecnologias necessárias à execução dessas tarefas, e do grau de dificuldade para executar cada uma delas. Por exemplo, conforme o relatório do Goldman Sachs citado anteriormente, em uma escala de 1 a 7 de dificuldade, preencher um formulário teria dificuldade 1. Avaliar uma solicitação de seguro para execução da apólice, uma dificuldade 4. Já peticionar a um Tribunal em um processo difícil, teria uma complexidade de nível 6.

Contudo, antes de nos animarmos demais com as possibilidades, ou temermos as consequências, é necessário compreender que muitas das tarefas dessa área são melhor executadas por operadores do Direito do que por uma máquina. Isso porque o Direito é cheio de termos complicados, de significado aberto, ou suscetíveis a mudanças de acordo com o contexto social e econômico.

De toda maneira, a IA já vem sendo usada.

Experiências no Brasil e no mundo

No Brasil, já foram implementadas várias iniciáticas no Poder Judiciário. O software RAFA [3], do STF (Supremo Tribunal Federal), classifica os processos em tramitação na Corte de acordo com os Objetivos de Desenvolvimento Sustentável (ODS) da Agenda 2030 da ONU (Organização das Nações Unidas). O Projeto Victor, também do STF, aplica métodos de IA para melhorar a tramitação de processos, separando as principais peças do processo para análise dos ministros.

Um projeto [4] encabeçado por um time de pesquisadores do Service Innovation Lab (LabPlus), na Nova Zelândia, buscou reescrever uma lei como um código de software. A ideia é permitir que as leis possam ser escritas em ambas as formas, ou seja, escritas de maneira a serem lidas por um ser humano, e em código de programação, permitindo superar alguns obstáculos na utilização de técnicas de processamento de linguagem natural. Assim, a expectativa é que seria possível a aplicação de leis de forma automática e com menos erros. Vale ressaltar que a OpenAI, criadora do ChatGPT, possui uma ferramenta que traduz linguagem natural em código de programação, prometendo acelerar esse movimento [5].

Técnicas mais comuns

Para a resolução de problemas jurídicos complexos, como dar uma sentença em um processo, no estado atual da arte, as principais técnicas de machine learning (aprendizado de máquina) empregadas têm sido aquelas ligadas à Linguagem de Processo Natural – PLN (ou Natural Language Processing – NLP). Essas técnicas conseguem transformar algo falado em algo escrito (como em legendas geradas automaticamente), ou até mesmo identificar os argumentos dentro de um texto escrito. Essa última aplicação, chama de argument mining, literalmente minera os argumentos dentro de sentenças, descrevendo os argumentos ali contidos.

Para isso, ela divide o texto em várias categorias, como premissas, evidências, conclusões, condições. Por exemplo, no texto “O réu confessou ter cometido o crime, e, portanto, deverá ser condenado. Contudo, sua pena não poderá ser superior a oito anos”, temos uma premissa (o réu confessou o crime), uma consequência (será condenado), e uma condição (não terá uma pena maior que oito anos). Essa técnica, embora eficaz em alguns contextos, possui algumas limitações para gerar decisões automáticas, além de riscos que devem ser criteriosamente avaliados pelos criadores das ferramentas.

Riscos e consequências

Talvez o principal risco na utilização de inteligência artificial, não só no Direito, mas em todas as áreas, é a possibilidade de discriminação.

Em 2016, um Tribunal na Flórida passou a utilizar um algoritmo de aprendizado de máquina para avaliar o risco de reincidência de um indivíduo com base em diversos fatores, como histórico criminal, idade, sexo e emprego. Uma investigação, encabeçada por uma organização chamada ProPublica [6], concluiu que o código enviesava as decisões contra negros. O software, de nome COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), teve seus parâmetros corrigidos e segue em uso pelo Tribunal da Flórida. Contudo, segue levantando questões éticas relevantes sobre a aplicação de IA no Direito, bem como a necessidade de se conceder mais transparência com relação aos algoritmos.

Outra preocupação na adoção dessas ferramentas é a reliability, ou confiança nas decisões. Isso porque, diante da inexistência de uma resposta clara, a máquina pode inventar um resultado, ou até mesmo “delirar”, fornecendo “outputs” pouco confiáveis.

Por fim, devemos sempre estar atentos a como esses algoritmos obtêm e processam os dados pessoais. Como a IA pode depender de grandes quantidades de dados sensíveis e confidenciais, tais como informações pessoais dos clientes, detalhes de casos legais e dados jurídicos confidenciais, o tratamento desses dados para treinar e testar os algoritmos pode aumentar o risco de violações de privacidade e segurança. Se medidas adequadas de proteção de dados não forem implementadas, as informações confidenciais podem ser expostas ou usadas de maneira inadequada, prejudicando a confiança e a integridade do sistema jurídico.

Os humanos seguem sendo relevantes

A tecnologia promete acelerar a substituição de várias tarefas, mas os riscos e desafios enfrentados devem manter, ao menos por ora, humanos em funções estratégicas para validar as decisões tomadas pelas máquinas (expressão conhecida como “human in the loop”).

Quando o automóvel surgiu, o cocheiro logo ficou sem trabalho. Contudo, milhares de empregos foram criados nas fábricas, nos postos de combustível, nas rodovias, ultrapassando – e muito, a eliminação dos antigos ofícios. Ainda é cedo para dizer se o mesmo desfecho se repetirá com a IA, mas é esperado que, com ela, outras profissões jurídicas surjam. Dentre as tendências, destacam-se a de analista jurídico de dados, responsáveis por aplicar a jurimetria e extrair insights para processos ou consultas, arquiteto jurídico e engenheiro jurídico, que aplicam seus conhecimentos na construção de softwares aplicáveis à área do Direito.

Outras profissões, como a de juiz ou de advogado, não devem ser substituídas. O que se espera é que, à maneira que ocorreu com o advento dos computadores e da internet, a IA seja utilizada para apoiar as decisões desses profissionais, não para substituí-los. Por isso, é esperado que os departamentos jurídicos mantenham sua relevância dentro das organizações, seja revisando decisões sugeridas por máquinas, seja analisando dados e apoiando as decisões estratégicas.

 

Referências

[1] Disponível em https://www.key4biz.it/wp-content/uploads/2023/03/Global-Economics-Analyst_-The-Potentially-Large-Effects-of-Artificial-Intelligence-on-Economic-Growth-Briggs_Kodnani.pdf acessado em 05/05/2023

[2] Disponível em https://www.washingtonpost.com/technology/2023/05/02/ai-jobs-takeover-ibm/ acessado em 05/05/2023

[3] Disponível em <https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=487134&ori=1> acessado em 08/05/2023

[4] Disponível em https://www.digital.govt.nz/dmsdocument/95-better-rules-for-government-discovery-report/html, acessado em 08/05/2023

[5] Disponível em https://openai.com/blog/openai-codex, acessado em 09/05/2023

[6] Disponível em https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing, acessado em 08/05/2023