Perigo concreto da inteligência artificial na praxe do direito
Data: 09/06/2023
Autoria: José Rogério Cruz e Tucci
Há cinco anos, num artigo seminal publicado na ConJur, Dierle Nunes, Paula Caetano Rubinger e Ana Luiz Marques profetizavam os impactos preocupantes que o uso da IA (inteligência artificial), de forma acelerada e desregrada, poderiam causar no ambiente das profissões jurídicas.
Esta previsão para um futuro não tão distante tornou-se realidade.
De fato, numa carta aberta alertando para os perigos do desenvolvimento desenfreado da inteligência artificial, divulgada no dia 29 de março passado, elaborada pelo Future of Life, instituto sem fins lucrativos que trata da criação responsável de novas tecnologias, pede-se a suspensão imediata por seis meses do treinamento de sistemas de IA mais avançados, para que o seu respectivo desenvolvimento seguro e responsável seja implantado por meio de diretrizes éticas e normas regulatórias.
A rigor, assevera o importante documento, “sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema… Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos seis meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”.
Dúvida não há, mesmo entre os leigos, de que a IA ostenta o potencial de trazer muitos benefícios à humanidade, ministrando novas soluções para problemas complexos em áreas como saúde, educação, economia, direito, mobilidade urbana e muito mais. No entanto, há também desassossego de que o rápido avanço da IA possa representar riscos e desafios para a mundo contemporâneo. Entre as potenciais ameaças, cresce o perigo de consequências involuntárias ou equívocos inexoráveis que podem gerar prejuízos incalculáveis.
No campo da praxe jurídica, a edição do The New York Times da última semana de maio passado, publica um interessante artigo de Benjamin Weiser, dando conta de que foi ajuizada uma ação, como tantas outras, por Roberto Mata, perante a justiça federal de Manhattan, Nova York, contra a companhia Avianca (Roberto Mata v. Avianca Inc.), alegando que ele foi lesionado, durante um voo de San Salvador para o aeroporto Kennedy, por um carrinho de metal que atingiu o seu joelho.
Contestada a ação judicial, a requerida Avianca pleiteou a rejeição liminar da demanda, visto que o pedido era absolutamente inconsistente porque já tinha se verificado a prescrição. Na sequência, o advogado do autor apresentou uma alentada réplica, invocando inúmeros precedentes, dentre eles, os seguintes: Martinez v. Delta Air Lines e Varghese v. China Southern Airlines.
Não obstante, curiosamente nem o advogado da companhia aérea, nem mesmo o próprio juiz conseguiram encontrar os precedentes jurisprudenciais colacionados pelo demandante.
O advogado da Avianca informou o juízo que “não foi capaz de encontrar os precedentes Varghese v. China Southern Airlines, Zicherman v. Korean Air Lines Co. e tampouco os outros citados”. A cópia da suposta decisão de Varghese, apresentada com a réplica, por exemplo, tem seis páginas, apontando que a decisão foi proferida por três magistrados do 11º Circuito. No entanto, este precedente não foi encontrado nos anais da jurisprudência dos tribunais federais de Nova York.
Resumo da história: descobriu-se que o ChatGPT havia inventado tais precedentes, em decorrência da pesquisa feita, para alicerçar as razões da Avianca.
O advogado que elaborou a réplica, Steven A. Schwartz, da banca Levidow, Levidow & Oberman, passou a responder um processo sobre a sua conduta profissional, tendo que prestar declaração juramentada que havia usado o programa de inteligência artificial para fazer sua pesquisa jurídica, confessando, depois da referida descoberta, que “a fonte por ele utilizada se revelou não confiável”.
Schwartz, que exerce a profissão em Nova York há três décadas, alegou ao juiz P. Kevin Castel que não tinha intenção alguma de enganar o tribunal ou a companhia aérea. Afirmou, nesse sentido, que nunca havia usado o ChatGPT e, “portanto, desconhecia a possibilidade de que seu conteúdo pudesse ser falso…, e que o programa tinha confirmado que os precedentes eram reais”. O advogado declarou ainda que jamais irá recorrer novamente ao ChatGPT.
O juiz Castel, ao escrever o relatório do caso e designar uma audiência preliminar, para verificar se o processo disciplinar deve prosseguir para eventual aplicação de sanções ao advogado, asseverou que se encontrava diante de uma circunstância inusitada, em virtude de ter que examinar uma demanda repleta de “decisões judiciais e citações”.
O referido artigo ainda nos informa que Stephen Gillers, professor de ética jurídica na Universidade de Nova York, indagado a respeito do aludido caso, salientou que a questão é particularmente crítica entre os advogados, que vêm debatendo o valor e os perigos da IA, “a discussão que a partir de agora se estabelece entre os advogados é como evitar exatamente essa situação no exercício profissional; você não pode simplesmente extrair o resultado, recortá-lo e colá-lo em seus arrazoados forenses”.
Este episódio bizarro nos fornece pálida mostra do que efetivamente pode ocorrer, sobretudo quando o operador das profissões jurídicas não tiver a mínima cautela de examinar com atenção redobrada os subsídios que são oferecidos pelas novas ferramentas tecnológicas, em especial, aquelas dotadas de IA.
Fonte: Consultor Jurídico