O USO DA INTELIGÊNCIA ARTIFICIAL NOS ATOS PROCESSUAIS E OS SEUS DESAFIOS

Por  Marcelo Eduardo da Cruz Cascaes e Gabriel Ribeiro de Medeiros e Silva*

Nos últimos anos, os avanços da inteligência artificial (IA) alteraram decisivamente os rumos da sociedade moderna. Apesar disso, embora os avanços e os ganhos sejam imensuráveis, é necessário que a sociedade saiba lidar com as novas questões éticas e jurídicas decorrentes do novo paradigma tecnológico, em especial o Poder Judiciário, com a sua implementação nos atos processuais [1].

O atual contexto da sociedade moderna é, de fato, um caminho sem volta na história contemporânea. O paradigma é tamanho que pode ser comparado, sem exagero algum, ao início da Revolução Industrial, quando se trocou a força animal pelas máquinas a vapor. Se na Revolução Industrial, delineou-se o homem moderno e urbano, hoje se vive a perspectiva do cidadão digital.

Como consequência dessas transformações, os juristas estão imersos em uma sociedade que adquiriu novas sensibilidades cognitivas, em decorrência da tecnologia, e que é marcada pela produção quantitativa de informações em um crescimento contínuo e vertiginoso.

Todavia, vários são os sinais de uma tendência à homogeneização nas formas de pensar, organizar a vida e planejar o futuro, o que afeta a condução do processo judicial. Isso porque, dado o movimento de alargamento dos horizontes, os comportamentos experimentados pela sociedade se tornam mais homogêneos. Assim, percebe-se a reprodução maciça de uma informação similar entre diversas pessoas de países, culturas e experiências distintas [2].

Outrossim, partindo-se do pressuposto que o Direito é uma ciência social aplicada, muito se discute sob quais bases éticas os atos processuais são tomados, no uso da via tecnológica em processos judiciais, e de que forma podem ser submetidos a um rigoroso processo de accountability [3].

Com isso, diante das inovadoras abordagens para exercer a jurisdição, torna-se imperativo realizar uma análise crítica do modelo aplicado ao destinatário do serviço público da Justiça, a fim de compreender as nuances que a contornam e suas problemáticas, com o objetivo de traçar futuras soluções.

O uso das novas tecnologias, a exemplo do “Chat GPT”, “Chatsonic”, “GPT-3 Playground”, “YouChat” entre outros, possibilita o aperfeiçoamento das atividade jurídicas e podem ser aplicadas para auxiliar o raciocínio dos advogados e magistrados, no que diz respeito ao aprimoramento da “performance” argumentativa, associativa e discricionária.

Com efeito, a inteligência artificial tornaria o acesso à Justiça mais rápido, barato e previsível, sem comprometer, em tese, sua fundamentação intelectual.

Porém, o que se observa é uma grande dificuldade na constante atualização jurídica do sistema da IA, especialmente porque o processo de automação de textos legais para códigos tecnológicos ficam sob a responsabilidade de programadores ou outros profissionais de Tecnologia da Informação [4].

Esses agentes não têm a expertise ou familiaridade com o trato das fontes legais do sistema jurídico, tampouco com questões éticas, sociais, políticas, filosóficas que permeiam o direito e a condução do processo pelo Poder Judiciário, o que dificulta ou gera verdadeiras lacunas no processo de atualização jurídica da IA, além de contribuírem para o engessamento das respostas dadas pelas máquinas [5].

Ademais, em certos casos concretos, a particularidade é tamanha, pois envolve diversas premissas e condições essencialmente subjetivas, que a decisão do magistrado deve ser ímpar.

Nesse contexto, o simples uso da inteligência artificial não é capaz de evitar o enviesamento e a homogeneidade. Isso porque o uso da IA, a partir do aprendizado de máquina, é alimentado por base de dados que refletem tendências igualmente inclinadas a certas conclusões. Essa situação ocorre pois o aprendizado de máquina da IA, embora tenha um maior grau de complexidade, cria padrões com base num conjunto de dados utilizados para treinar o seu sistema [6].

Como resultado, um caso “distinguishing” não seria reconhecido pela inteligência artificial e, consequentemente, esta forneceria, como resolução de conflito, uma decisão genérica que não se amoldaria às peculiaridades do caso. Esse contexto externaliza o movimento de alargamento dos horizontes e o fato de os comportamentos experimentados pela sociedade se tornarem mais homogêneos.

Outro fator essencial que merece uma análise crítica diz respeito à necessidade de se implementar um rigoroso processo de accountability para os sistemas de inteligência artificial.

O controle social do uso dessas novas tecnologias é de suma importância, visto que os atos processuais têm sofrido um intenso processo de automatização.

Todavia, os critérios usados pela IA, na maioria das vezes, não são bem explicados por seus criadores, de modo que, embora sejam demasiadamente usados pelas partes do processo, pouco se fala em auditoria desses elementos condutores de respostas e fundamentações jurídicas criadas pela IA.

De acordo com Gutierrez, certas questões devem ser objetivamente respondidas:

Como garantir que os sistemas de decisões automatizadas não discriminem (e, assim, respeitem o direito constitucional à não discriminação) ou não firam o direito à privacidade? – Quais são os critérios que estão embasando ou podem definir possíveis decisões de sistemas automatizados e que porventura podem ter como efeito a discriminação, ameaça à vida, à democracia ou ao cumprimento das leis vigentes? – É possível assegurar que um sistema de decisões automatizadas de determinada empresa está cumprindo as regras contratuais, as legítimas expectativas dos seus clientes e as leis vigentes? [7]

Fato é que uma auditoria condizente, eficiente e acessível é um processo complexo de se concretizar, especialmente se o acesso a que se pretende for democrático.

Isso porque diversos são os elementos obstaculizadores, dentre os quais se pode realçar a pouca ou nenhuma discussão acerca de um software inteligente capaz de compreender e assimilar as múltiplas linguagens usadas pela inteligência artificial [8].

Um debate tardio acerca desse tema implica numa complexidade cada vez maior de a nova tecnologia de auditoria atingir o patamar de evolução da IA, visto que, a cada paradigma, os limites de tempo e espaço para guardar e propagar as informação são expandidas e o arcabouço de variáveis envolvidas é multiplicado exponencialmente.

Ademais, as entidades de alto poder econômico, destinatárias de incentivos financeiros e industriais a nível global, e detentoras das novas tecnologias não têm interesse em desenvolver, paralelamente, uma pesquisa voltada ao controle do que se está produzindo pelas inovações trazidas em decorrência da IA.

Concomitantemente, as entidades que se debruçam para a construção de um processo de accountability dependem de doações de recursos dos setores público e privado, o que traduz uma situação de desproporcionalidade com os criadores do modo operacional “machine learning”. Isso porque o financiamento escasso impossibilita o acompanhamento dos desdobramentos mais recentes da inteligência artificial.

 Logo, caso a temática ética e antropológica a respeito da recepção e uso da IA seja tardiamente debatida, as futuras sociedades se submeterão a um sério risco de um rápido processo de inefetividade dos princípios do acesso à Justiça e do Processo Civil, tornando-os inócuos e meramente simbólicos.

Diante do exposto, dado o avanço tecnológico, a evolução e as mutações da IA, os algoritmos usados produzem conexões e levantamento de dados que são superiores à capacidade de cognição humana, tanto nas atividades do dia a dia quanto nos atos processuais. Nesse contexto, o campo jurídico como um todo, incluindo-se magistrados, advogados e membros do Ministério Públicos, estão imersos nesse novo paradigma revolucionário.

Fato é que a popularização da IA exigirá profissionais capazes de lidar com as transformações tecnológicas e de operar em equipes interdisciplinares, incluindo-se juristas, cientistas da computação e antropólogos, para a construção de sistemas inteligentes que tenham efeitos positivos e protejam direitos e interesses juridicamente tutelados nos casos concretos.

Ainda, dada a relevância da IA e do seu uso no meio jurídico, é imperioso que os envolvidos busquem meios igualmente tecnológicos que permitam o controle social do uso das máquinas nos processos judiciais.

Assim, o substrato mínimo da ética processual impedirá a redução do valor da Justiça a meros números estatísticos e algoritmos de “machine learning”, preservando, com isso, os princípios do acesso à Justiça e do Processo Civil, vistos como a envergadura de uma justa resolução da lide, independentemente do desfecho do conflito.

______________________________________________________________________________________________________________________________________

* Graduandos em Direito pela Universidade de Brasília (UnB), membros da Liga Acadêmica de Processo Civil da Universidade de Brasília (LAPROC). marcelocascaes2010@hotmail.com; gabriel.rb1silva@gmail.com.

______________________________________________________________________________________________________________________________________

REFERÊNCIAS

[1] Ver nesse sentido:

<https://brasil.elpais.com/brasil/2018/01/14/tecnologia/1515955554_803955.html.>

<https://www.conjur.com.br/2023-nov-12/cnj-vai-investigar-juiz-que-usou-tese-inventada-pelo-chatgpt-para-escrever-decisao/>

<https://g1.globo.com/tecnologia/noticia/2023/02/03/juiz-usa-robo-chatgpt-para-redigir-sentenca-de-caso-de-crianca-autista-na-colombia.ghtml>; <https://www.cnnbrasil.com.br/nacional/advogado-usa-chatgpt-pra-fazer-peticao-e-e-multado-pelo-tse/#:~:text=Um%20advogado%20foi%20multado%20em,Tribunal%20Superior%20Eleitoral%20(TSE).>; 

[2] BELL, Daniel. O advento da sociedade pós-industrial: uma tentativa de previsão social. Tradução de Heloysa de Lima Dantas. São Paulo: Cultrix, 1977.

[3] GUTIERREZ, Andriei. É possível confiar em um sistema de inteligência artificial?: práticas em torno da melhoria da sua confiança, segurança e evidências de accountability. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Revista dos Tribunais, 2019.

[4] PINTO, Henrique Alves. A utilização da inteligência artificial no processo de tomada de decisões: por uma necessária accountability. Revista de Informação Legislativa: RIL, Brasília, DF, v. 57, n. 225, p. 43-60, jan./mar. 2020. 

[5] MARANHÃO, Juliano Souza de Albuquerque; FLORÊNCIO, Juliana Abrusio; ALMADA, Marco. Inteligência artificial aplicada ao direito e o direito da inteligência artificial. Suprema: revista de estudos constitucionais, Brasília, v. 1, n. 1, p. 154-180, jan./ jun. 2021.

[6] LUGER, George F. Inteligência artificial: estruturas e estratégias para a solução de problemas complexos; tradução Paulo Martins Engel. 4 ed. Porto Alegre: Bookman, 2007.

[7] GUTIERREZ, Andriei. É possível confiar em um sistema de inteligência artificial?: práticas em torno da melhoria da sua confiança, segurança e evidências de accountability. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coord.), pp. 86-87.

[8] DONEDA, Danilo Cesar Maganhoto et al. Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal. Pensar – Revista de Ciências Jurídicas, v. 23, n. 4, p. 1-17, 2018.

 

 

você pode gostar

Deixe um comentário

Este site usa cookies para melhorar sua experiência. Vamos supor que você está de acordo com isso, mas você pode optar por não participar, se desejar. Aceitar

Privacy & Cookies Policy