A inteligência artificial, conhecida como IA, é um conjunto de tecnologias que permitem que computadores executem tarefas avançadas, incluindo, por exemplo, a capacidade de ver, entender e analisar dados, assim como fazer recomendações com base nisso. Esse conceito começou a ser explorado em 1950 através de um artigo publicado por Alan Turing, que avaliava se uma máquina poderia se passar por um por um ser humano durante uma interação por escrito1.
Ao longo das décadas, a inteligência artificial evoluiu significativamente, principalmente com o avanço da tecnologia computacional. No entanto, apenas em 2022, foi lançado o ChatGPT, uma IA que tem como finalidade simular interações humanas, oferecendo respostas coerentes baseadas em deep learning2. Esse modelo de linguagem natural se demonstrou valioso em diversas aplicações e, em 2023, novas ferramentas de IA foram lançadas, trazendo novos tipos de criações, como imagens e vozes.
No ponto de vista jurídico, a IA pode ser utilizada na análise de documentos, revisão de contrato e auxílio na elaboração de peças processuais, trazendo benefícios como rapidez, precisão e redução de custos. Entretanto, por ser um assunto extremamente novo, acaba surgindo uma série de considerações legais e éticas que precisam ser cuidadosamente analisadas, especialmente no que diz respeito ao sigilo profissional e a confidencialidade.
O sigilo profissional é o dever do advogado de manter em segredo as informações do cliente, revelando-as apenas com a autorização deste ou em casos de exigência legal. A confidencialidade, por sua vez, refere-se ao compromisso de tratar as informações fornecidas pelo cliente com descrição e segurança, garantindo a proteção contra acessos ou divulgação indevida por terceiros.
No seu livro Inteligência Artificial e Direito, Fabiano Hartmann Peixoto evidencia que o uso de IA no direito levanta várias questões éticas, uma vez que os algoritmos de IA podem ser influenciados por preconceitos inconscientes contidos nos dados de treinamento, levando a resultados tendenciosos e discriminatórios. Assim, a IA tem o potencial de perpetuar ou até ampliar desigualdades existentes no sistema jurídico.
Ao utilizar a IA, especialmente em um sistema aberto – uma ferramenta baseada na internet e disponível publicamente, cujos termos de serviço indicam que os dados não são confidenciais –, o advogado que optar por esse recurso estará expondo dados sigilosos de seus clientes a riscos de violação. Nesse contexto, essas informações podem ser acessadas por outros usuários de IA ou por hackers, comprometendo o sigilo profissional e a confidencialidade dos dados.
Além disso, há três opções adicionais de sistemas de IA disponíveis para os advogados. Alguns sistemas permitem que os usuários recusem seus dados sejam usados para treinar sistemas; no entanto, isso é instável, pois os termos de uso do sistema são suscetíveis a alterações. Outra possibilidade é contratar um fornecedor que ofereça acesso a sistemas de IA exclusivos, restritos a pessoas autorizadas. Porém, mesmo nessa versão dedicada, o fornecedor ainda poderá utilizar os dados, comprometendo a confidencialidade. Por fim, a alternativa mais segura seria uma IA programada para operar em um sistema fechado, que utilize apenas os dados do cliente para treinar os algoritmos, proporcionando maior segurança. No entanto, essa opção apresenta um alto custo de implementação e manutenção.
Diante disso, observa-se que ferramentas de IA aplicadas ao direito podem ser uma ferramenta útil, mas também podem trazer desafios éticos e legais que os advogados devem considerar, buscando mitigar quaisquer riscos que possam afetar os interesses e os direitos de seus clientes.