top of page

Comentários sobre as recomendações da OAB sobre o uso de Inteligência Artificial por advogados

Foto do escritor: Lucas GuerreiroLucas Guerreiro


No dia 27 de novembro de 2024, o conselho federal da Ordem dos Advogados do Brasil, aprovou um documento criado pelo Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados da OAB Nacional [1], que contém algumas recomendações para advogados no que tange ao uso da Inteligência Artificial Generativa. 

O documento está aqui. Vou dar minha opinião sobre o mesmo.


Legislação Aplicável

A recomendação da OAB acerta ao destacar a importância da conformidade com a legislação vigente, como o Estatuto da Advocacia, o Código de Ética da OAB e a Lei Geral de Proteção de Dados (LGPD). Eu também incluiria, nesse rol exemplificativo, o Marco Civil da Internet, que regula o uso da tecnologia em ambiente digital. Essas legislações oferecem uma base inicial sólida para o uso responsável da IA na prática jurídica, assegurando a preservação dos direitos dos clientes e a utilização da tecnologia dentro dos limites éticos e legais.

A aplicação prática desta recomendação exige que o advogado esteja atualizado sobre os desdobramentos da legislação relacionada à proteção de dados e à tecnologia. Por exemplo, em casos recentes envolvendo violações da LGPD, empresas foram multadas por não proteger adequadamente os dados pessoais de seus clientes [2]. No contexto jurídico, o uso de ferramentas de IA que armazenam ou processam informações sensíveis pode expor escritórios de advocacia a riscos semelhantes.

Advogados devem realizar auditorias regulares de conformidade em suas ferramentas de IA e exigir de seus fornecedores garantias contratuais de que o software utilizado respeita a legislação aplicável. Na prática, isso pode não ser tão simples. Considere o caso do famoso e muito popular ChatGPT. Ele não foi projetado especificamente para estar em conformidade com a legislação brasileira, tal como a Lei Geral de Proteção de Dados (LGPD). Trata-se de um software desenvolvido nos Estados Unidos, cuja evolução ocorre em um ritmo extremamente rápido, muitas vezes ultrapassando a capacidade das legislações e regulamentações dos diversos ordenamentos jurídicos ao redor do mundo de acompanhá-lo.

Por essa razão, é fundamental que escritórios de advocacia implementem políticas internas para assegurar o uso adequado da tecnologia por seus profissionais. Enquanto não houver uma legislação específica para regular o uso de IA na prática jurídica no Brasil, o mais prudente é avaliar cuidadosamente os riscos relacionados à privacidade e à confidencialidade dos dados envolvidos. O ChatGPT, por exemplo, pode não ser a melhor opção para lidar com temas sensíveis e reais, especialmente se houver a necessidade de inserir dados concretos ou informações confidenciais no software.


Confidencialidade

A confidencialidade é um pilar da advocacia, e o uso de IA introduz novos desafios nesse aspecto. O texto da OAB acerta ao reforçar a necessidade de proteger os dados inseridos em sistemas de IA, especialmente quando lidam com informações sensíveis, como estratégias de defesa ou dados financeiros de clientes. Além disso, a recomendação de verificar fornecedores é essencial para evitar o vazamento ou mau uso de informações.

E como falei anteriormente, o uso do ChatGPT para processar informações sensíveis é arriscado, já que o modelo não oferece garantias sobre como esses dados serão protegidos ou utilizados. Políticas internas e a escolha de ferramentas específicas para o setor jurídico podem ser recomendações mais adequadas.

Casos de vazamento de dados em plataformas tecnológicas, como o incidente da Cambridge Analytica [3], demonstram os riscos de confiar cegamente em sistemas que processam grandes volumes de dados. Escritórios de advocacia que utilizam IA devem considerar esses precedentes e adotar medidas preventivas para evitar violações similares.

Para mitigar riscos, os advogados podem priorizar o uso de ferramentas que operem em ambientes locais (on-premises) em vez de soluções na nuvem. Além disso, é fundamental revisar e negociar os contratos com fornecedores para garantir que os dados inseridos sejam criptografados e não utilizados para fins não autorizados. Ferramentas de anonimização de dados também podem ser úteis para reduzir a exposição de informações sensíveis.


Prática Jurídica Ética

A recomendação enfatiza que o uso de IA não deve substituir o julgamento humano, um ponto crucial para preservar a autonomia do advogado. A dependência excessiva de ferramentas tecnológicas pode comprometer a análise crítica e a interpretação de questões jurídicas complexas, o que não pode ser delegado a máquinas.

Em um caso emblemático nos Estados Unidos, um advogado foi severamente criticado após apresentar documentos gerados por IA contendo jurisprudência inexistente [4]. Esse incidente reforça a necessidade de supervisão humana rigorosa na utilização dessas tecnologias. A IA pode ser uma excelente ferramenta para pesquisa e análise, mas o advogado continua sendo o responsável final pela precisão e integridade do trabalho.

Advogados devem tratar a IA como um suporte, utilizando-a para automatizar tarefas repetitivas, como revisão de contratos ou organização de documentos. No entanto, todas as análises e doscumentos devem ser revisados por um advogado para garantir sua precisão. Além disso, a capacitação constante é essencial para entender as limitações e os vieses da tecnologia.


Comunicação sobre o uso de IA Generativa

A transparência com os clientes é uma recomendação bem fundamentada. Os clientes têm o direito de saber quando ferramentas de IA estão sendo utilizadas em seus casos, bem como os riscos e benefícios envolvidos. Essa abordagem não apenas fortalece a relação de confiança, mas também protege os advogados de possíveis acusações de negligência ou engano.

Lembro de um serviço que prestei alguns meses atrás para um escritório norte-americano. Foi-me solicitado reunir uma vasta jurisprudência sobre um tema específico. No meu trabalho, utilizei inteligência artificial como ferramenta de revisão e análise crítica. A IA não me substituiu, mas auxiliou na execução do trabalho em tempo recorde. Informei o escritório contratante sobre o uso da IA e expliquei detalhadamente como a utilizei. Não houve qualquer problema, e recebi os honorários pelo trabalho realizado.

Em um contexto onde a IA ainda é mal compreendida por muitos, ser transparente é fundamental para evitar mal-entendidos. Um exemplo relevante seria informar os clientes sobre o uso de IA para acelerar a redação de petições, mas garantindo que o conteúdo final é revisado por um advogado experiente. E informando que os dados reais do cliente não serão colocados no sistema generativo.

Advogados podem incluir em seus contratos cláusulas específicas sobre o uso de tecnologia, esclarecendo que a IA será utilizada como ferramenta auxiliar. Além disso, reuniões com os clientes podem ser uma oportunidade para explicar como a tecnologia agrega valor ao trabalho jurídico, destacando que as atividades privativas da advocacia continuarão sendo realizadas exclusivamente por profissionais habilitados.


Disposições Finais

A previsão de atualizações periódicas no documento é um ponto positivo, já que a tecnologia está em constante evolução. No entanto, essa atualização deve ser acompanhada de ações concretas, como workshops, publicações informativas e novos critérios para auditar práticas jurídicas envolvendo IA.

As recomendações podem tornar-se obsoletas rapidamente se não forem acompanhadas de uma estratégia proativa de revisão e implementação. Por exemplo, o surgimento de novas legislações, como o Regulamento Europeu de IA [5], pode impactar diretamente o uso de ferramentas tecnológicas no Brasil, exigindo adaptações nas diretrizes.

A OAB pode liderar iniciativas de capacitação contínua, incluindo cursos sobre novas tecnologias e suas implicações legais. Para os advogados, participar ativamente dessas formações e acompanhar os desdobramentos das atualizações será essencial para manter sua prática jurídica alinhada às melhores práticas e inovações tecnológicas.


_________________

Notas

[1] Segurança digital: OAB lança Observatório Nacional de proteção de dados e Inteligência Artificial - https://www.oab.org.br/noticia/62289/seguranca-digital-oab-lanca-observatorio-nacional-de-protecao-de-dados-e-inteligencia-artificial


[2] Por exemplo: "ANPD aplica a primeira multa por descumprimento à LGPD" - https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-aplica-a-primeira-multa-por-descumprimento-a-lgpd


[3] O caso Cambridge Analytica foi um dos maiores escândalos de privacidade de dados da era digital, revelado em 2018, e envolveu a coleta e o uso não autorizado de informações pessoais de milhões de usuários do Facebook para influenciar campanhas políticas.


[4] Advogado pede desculpas por falsas citações judiciais criadas pelo ChatGPT - https://www.cnnbrasil.com.br/internacional/advogado-pede-desculpas-por-falsas-citacoes-judiciais-criadas-pelo-chatgpt/


 
 
 

Comments


bottom of page