Ontem estive na edição 2024 da AB2L LawTech Experience, o maior evento de tecnologia e inovação jurídica do Brasil, que reuniu mais de 5 mil advogados em São Paulo, e todos nós notamos o significativo aumento das soluções que utilizam Inteligência Artificial.
No meu Instagram eu mostrei várias dessas ferramentas. Caso queira ver, faz uma visita lá no meu perfil. Não vou falar delas aqui para não transformar esse artigo em um livro!
Como entusiasta de tecnologia e inovação no Direito, fico feliz com esse avanço da tecnologia no mercado jurídico, pois sei que terá muitos benefícios, tanto para os advogados quanto para os clientes e a sociedade em geral.
No entanto, a pergunta que fica no ar é: Os advogados estão preparados para implementar a Inteligência Artificial na sua rotina?
Muitos defendem a regulamentação do uso dessa nova tecnologia, guiados pelo medo que o mau uso da I.A. pode causar. No âmbito mais geral, um Marco Legal para toda a sociedade, e no âmbito mais específico, regras ditadas pelo CNJ no Judiciário e OAB na Advocacia.
Ontem a OAB dos Estados Unidos (American Bar Association) deu um passo importante nesse sentido e que pode servir de orientação para a OAB brasileira. Vamos ver:
Pronunciamento da American Bar Association
Em seu primeiro pronunciamento importante sobre a ética do uso de IA generativa na prática jurídica, a American Bar Association emitiu um parecer dizendo que os advogados não precisam se tornar especialistas na tecnologia, mas devem ter uma compreensão razoável das capacidades e limitações da tecnologia específica de IA generativa que o advogado pode usar.
No Parecer Formal 512, emitido ontem, o Comitê Permanente de Ética e Responsabilidade Profissional da ABA buscou identificar alguns dos problemas éticos que os advogados enfrentam ao usar ferramentas de IA generativa e oferecer orientação aos advogados para navegar nesse cenário emergente.
Reconhecendo que o rápido desenvolvimento da IA de geração a torna um alvo de rápido movimento, o comitê disse:
“É esperado que este Comitê e os comitês de ética das associações de advogados estaduais e locais provavelmente ofereçam orientação atualizada sobre questões de conduta profissional relevantes para ferramentas específicas de GAI à medida que elas se desenvolvem”.
O parecer não oferece insights tão inovadores. Em vez disso, ele se concentra em muitas das mesmas questões éticas que foram discutidas em pareceres éticos estaduais emitidos até agora sobre IA generativa e as mesmas questões que surgem em quase todos os pareceres éticos sobre tecnologia jurídica de qualquer tipo: competência, confidencialidade, comunicação com clientes, responsabilidades de supervisão e honorários.
Uma questão exclusiva da IA generativa que o parecer aborda é a das reivindicações meritórias e da franqueza em relação a um tribunal.
Reconhecendo que surgiram problemas com o uso de IA por advogados envolvendo citações de jurisprudência inexistentes, análises imprecisas de autoridades legais e uso de argumentos enganosos, a ABA afirma que os advogados têm o dever — tanto de acordo com seu dever de competência quanto de franqueza para com os tribunais — de revisar a precisão de todos os resultados de produtos de IA generativa. Diz o parecer:
“Em processos judiciais, os deveres para com o tribunal também exigem que os advogados, antes de submeter materiais a um tribunal, revisem essas saídas, incluindo análises e citações de autoridade, e corrijam erros, incluindo declarações incorretas de direito e fato, falha em incluir autoridade legal controladora e argumentos enganosos”
Dever de Competência Tecnológica
O parecer começa com, e dedica sua maior seção a, uma discussão sobre o dever de competência de um advogado em usar IA generativa sob a Regra Modelo 1.1 — tanto competência legal quanto competência tecnológica.
Esse dever, diz a ABA, não exige que os advogados se tornem especialistas em IA, mas eles desenvolvam um entendimento razoável.
“Para usar com competência uma ferramenta GAI em uma representação de cliente, os advogados não precisam se tornar especialistas em GAI”, diz o parecer. “Em vez disso, os advogados devem ter um entendimento razoável das capacidades e limitações da tecnologia GAI específica que o advogado pode usar.”
O que isso significa, exatamente? A ABA oferece estas diretrizes:
Os advogados devem ter esse entendimento razoável ou recorrer à experiência de outras pessoas que possam fornecer orientação.
O dever não é estático. Os advogados devem acompanhar as mudanças na tecnologia e permanecer vigilantes sobre seus benefícios e riscos.
Com relação à capacidade da IA generativa de alucinar, a ABA:
"Os advogados nunca devem confiar ou enviar resultados gerados por IA sem um grau apropriado de verificação ou revisão independente de seus resultados”.
Qual é esse nível apropriado de revisão dependerá da ferramenta que está sendo usada e da tarefa que está sendo realizada.
Como exemplo, o parecer diz:
“O uso de uma ferramenta GAI por um advogado projetada especificamente para a prática do direito ou para executar uma tarefa jurídica discreta, como gerar ideias, pode exigir menos verificação ou revisão independente, particularmente quando a experiência anterior de um advogado com a ferramenta GAI fornece uma base razoável para confiar em seus resultados.”
Curiosamente, o parecer especula que pode chegar um momento em que os advogados terão que usar IA generativa “para completar com competência certas tarefas para os clientes”.
Mas mesmo sem tal requisito, a ABA diz que os advogados devem se conscientizar e entender essas ferramentas em uma extensão suficiente para que possam fazer um julgamento profissional sobre usá-las.
Outras questões éticas com IA generativa
O parecer aborda diversas outras questões éticas implicadas pelo uso de IA generativa por um advogado:
Confidencialidade. O dever de um advogado sob a Regra Modelo 1.6 de proteger as informações do cliente se estende ao uso de IA generativa, diz o parecer. Dado isso, os advogados devem avaliar o risco de divulgar informações confidenciais ao usar essas ferramentas e garantir que qualquer informação inserida em uma ferramenta de IA seja adequadamente protegida. O parecer aconselha os advogados a revisarem cuidadosamente os termos de uso e as políticas de privacidade das ferramentas de IA e consultar especialistas em TI ou segurança cibernética, se necessário. Em alguns casos, os advogados devem obter o consentimento informado do cliente antes de usar uma ferramenta de IA generativa, particularmente uma ferramenta de "autoaprendizagem" cuja saída pode ser inadvertidamente compartilhada com outros. "Para que o consentimento seja informado", diz o parecer, "o cliente deve ter o melhor julgamento do advogado sobre o motivo pelo qual a ferramenta de AI está sendo usada, a extensão e as informações específicas sobre o risco, incluindo detalhes sobre os tipos de informações do cliente que serão divulgadas, as maneiras pelas quais outros podem usar as informações contra os interesses do cliente e uma explicação clara dos benefícios da ferramenta de AI para a representação".
Comunicação. Mesmo quando o consentimento informado não é necessário, o dever de um advogado sob a Regra Modelo 1.4 de se comunicar com clientes pode exigir que os advogados informem os clientes sobre o uso de ferramentas de IA generativas. “Os fatos de cada caso determinarão se a Regra Modelo 1.4 exige que os advogados divulguem suas práticas de AI aos clientes ou obtenham seu consentimento informado para usar uma ferramenta de AI específica”, diz o parecer. “Dependendo das circunstâncias, a divulgação ao cliente pode ser desnecessária.”
Responsabilidades de supervisão. As Regras Modelo 5.1 e 5.3 exigem que advogados gerenciais e de supervisão garantam que todos os membros de seu escritório de advocacia cumpram as regras de conduta profissional ao usar quaisquer ferramentas de tecnologia, incluindo IA generativa. Esse dever inclui estabelecer políticas claras, treinamento sobre uso ético e monitoramento de conformidade. Além disso, ao terceirizar para provedores terceirizados, os advogados devem garantir que esses provedores cumpram os padrões de confidencialidade e responsabilidade profissional.
Honorários. Ao usar IA generativa, os advogados devem aderir à Regra Modelo 1.5 sobre honorários razoáveis, diz o parecer. Os advogados podem cobrar dos clientes pelo tempo gasto usando ferramentas de AI, diz a ABA, mas devem garantir que os honorários sejam razoáveis e reflitam o tempo real gasto. “Se um advogado usa uma ferramenta GAI para redigir uma petição e gasta 15 minutos para inserir as informações relevantes no programa de AI, o advogado pode cobrar pelos 15 minutos, bem como pelo tempo que o advogado gasta para revisar o rascunho resultante para precisão e integridade.” Para questões de honorários fixos, pode ser irracional para um advogado cobrar a mesma taxa ao usar IA generativa como ao executar o trabalho sem ela. Os advogados não podem cobrar dos clientes pelo tempo gasto para obter competência em IA generativa, a menos que explicitamente solicitado por um cliente. “Os advogados devem lembrar que não podem cobrar dos clientes pelo tempo necessário por sua própria inexperiência.”
A ABA conclui seu parecer com um lembrete aos advogados sobre sua responsabilidade de permanecerem vigilantes diante da evolução tecnológica.
“Advogados que usam ferramentas de AI têm o dever de competência, incluindo a manutenção de competência tecnológica relevante, o que requer uma compreensão da natureza evolutiva da AI. … Com o uso em constante evolução da tecnologia por advogados e tribunais, os advogados devem estar vigilantes no cumprimento das Regras de Conduta Profissional para garantir que os advogados estejam aderindo às suas responsabilidades éticas e que os clientes estejam protegidos.”
Conclusão
Na minha opinião, o parecer segue por um caminho que parece ser correto, com orientações que não impedem os advogados de utilizarem ferramentas de Inteligência Artificial Generativa e, ao mesmo tempo, fornecem orientações sobre como fazer isso da forma correta.
E você? Na sua opinião, a nossa OAB deveria seguir um caminho semelhante? Caso negativo, o que você acredita que deveria ou não deveria ser aplicado ao Brasil?
Comentários