Por Nate Raymond
(Reuters) - Um juiz de um tribunal federal de apelações nos Estados Unidos propôs algo que chamou de "impensável": Que os tribunais norte-americanos comecem a usar inteligência artificial para ajudar a interpretar palavras e frases em textos jurídicos.
O juiz Kevin Newsom emitiu seu parecer "incomum" na terça-feira, quando um painel de três juízes do 11º Tribunal de Apelações dos EUA, sediado em Atlanta, considerou que uma seguradora não precisava defender um homem processado por negligência na instalação de um trampolim.
Newsom, nomeado pelo ex-presidente republicano Donald Trump, concordou com essa decisão, uma vitória da United Specialty Insurance Company contra o paisagista do Alabama James Snell.
Mas o juiz disse que a briga o levou a considerar se os programas de IA generativa, como o ChatGPT, da OpenAI; o Gemini, do Google (NASDAQ:GOOGL); e o Claude, da Anthropic; poderiam oferecer algum benefício aos tribunais na interpretação do significado comum das palavras em um texto como um contrato de seguro.
O caso perante o 11º Circuito de Apelações concentrou-se em determinar se a instalação de um trampolim no solo e o trabalho relacionado de Snell se enquadravam no entendimento comum da palavra "paisagismo", usada em uma apólice de seguro que cobria reclamações relacionadas ao seu trabalho na área.
O 11º Circuito acabou decidindo contra Snell por outros motivos, mas Newsom disse que o assunto nem sempre foi óbvio.
Newsom disse que concordava "de todo o coração" com a avaliação do juiz da Suprema Corte dos EUA, John Roberts, em seu relatório anual de 31 de dezembro, de que o uso de IA na profissão jurídica exige "cautela e humildade".
"Porém, é importante ressaltar que também concordo com o que considero ser a suposição do relatório de que a IA veio para ficar", escreveu Newsom. "Agora, parece-me, é o momento de descobrir como usá-la de forma lucrativa e responsável."
O parecer foi emitido em um momento em que os tribunais de todos os EUA estão lidando com o rápido crescimento dos programas de IA e exploram se seu uso por advogados deve ser regulamentado ou proibido.
Alguns juízes se manifestaram recentemente de forma mais favorável à tecnologia, inclusive alguns juízes conservadores que veem potencial para o uso da IA na condução de pesquisas para decisões "originais" e "textualistas" que se baseiam na história e na linguística.
Newsom disse que passou horas pesquisando como o termo "paisagismo" é normalmente entendido e que, em um "ataque de frustração" após consultar dicionários, encarregou um funcionário de perguntar exatamente isso ao ChatGPT.
A definição resultante foi sensata e "menos maluca do que eu temia", o que levou Newsom a perguntar ao ChatGPT se a instalação de um trampolim no solo poderia ser considerado como um trabalho de "paisagismo".
O ChatGPT respondeu que sim. "O paisagismo envolve a alteração das características visíveis de uma área externa para fins estéticos ou práticos, e a adição de um trampolim no solo modificaria a aparência e a função do espaço", disse ChatGPT.
Newsom, que se autodenomina "textualista" e busca interpretar textos jurídicos com base em seus significados claros, disse que a experiência mostrou como os juízes poderiam usar programas de IA como "um auxílio a ser usado junto com dicionários, cânones semânticos, etc."
Ele reconheceu o risco conhecido de "alucinações", em que a IA generativa produz fatos que não são verdadeiros. Mas ele disse que, com as melhorias, "há todos os motivos para acreditar que as alucinações se tornarão cada vez menos frequentes".