Em 29 de março de 2023, o Jornal “The New York Times” publicou um artigo a respeito de uma carta assinada por mais de mil líderes no setor de tecnologia, dentre eles Elon Musk, presidente da Tesla, da Space X e do X (antigo Twitter). A carta solicitava uma pausa no desenvolvimento de inteligências artificiais acima do GPT-4, desenvolvido pela OpenAI, considerando o risco potencial de ameaça da própria existência da sociedade como a conhecemos e até mesmo da humanidade.
Hollywood chegou a fazer filmes como “O Exterminador do Futuro” e, atualmente, pode ser visto nas telas do cinema o filme “Resistência“, que trata exatamente da ameaça que a inteligência artificial traz a raça humana, em um embate quase impossível de ser vencido.
A questão é que a inteligência artificial não é mais algo próprio apenas de filmes de ficção científica, mas sim algo que já impacta o dia a dia das pessoas, por vezes sem que saibam. Esse próprio texto poderia estar sendo escrito por uma ferramenta de inteligência artificial, sem que as pessoas sequer suspeitassem que seu criador não era humano.
Na área de tecnologia, cada vez mais a inteligência artificial passa a fazer parte de softwares e aplicativos, seja na condição de “empréstimo” de tecnologias já consolidadas como o famoso “chat GPT” ou em tecnologias de inteligência artificial desenvolvidas pela própria empresa fabricante do software ou aplicativo. Linguagens de programação como Python, que inclusive possui código aberto, favorecem o desenvolvimento da inteligência artificial.
Esse é um mundo desconhecido, no qual não existem balizamentos, limites, regras e nem mesmo qualquer regulação… ao menos no Brasil. Todavia, isso não significa dizer que exista absoluta ignorância da sociedade e de parlamentares em relação ao tema.
Existem algumas organizações não governamentais dispensando integral atenção ao tema, como, por exemplo, a Coalizão Direitos na Rede, que já publicou inclusive uma carta aberta para a regulação da inteligência artificial no país, destacando alguns pontos bastante relevantes, como, por exemplo:
1. O temor de que a inteligência artificial possa reforçar ou criar formas de discriminação baseadas em raça, gênero, orientação sexual, classe social e ideologia.
2. O fato de não haver foco apenas em governança de dados, mas também em soluções para questões como opacidade algorítmica, discriminação e a delimitação de níveis de risco para diferentes aplicações de inteligência artificial.
3. A criação de grupos temáticos que garantam a participação de especialistas de outras áreas de conhecimento e que possuam profundo entendimento em aspectos técnicos e impactos sociais envolvendo sistemas de inteligência artificial.
4. A convocação de audiências públicas para permitir a participação multissetorial, interdisciplinar e representativa dos grupos diversos afetados por esse tema.
Sob a ótica da regulação, existem atualmente 3 projetos de lei no Congresso Nacional sobre o tema:
Dos 3 projetos de lei acima descritos, o primeiro e o terceiro basicamente enumeram princípios gerais que deveriam ser observados no desenvolvimento da inteligência artificial. Infelizmente, seu conteúdo é dramaticamente superficial para definir os limites da inteligência artificial, de forma a impedir o desenvolvimento malicioso ou mesmo possibilitar a autogestão, podendo ameaçar o ser humano.
Já o segundo projeto de lei é bem mais robusto, começando a endereçar questões importantes que devem estar no radar das autoridades. Atualmente, esse projeto de lei está aguardando uma audiência pública para contribuições da sociedade ao seu texto original.
No Brasil, a autoridade nacional de proteção de dados, por exemplo, já começou a abordar esse tema em um documento de sua autoria denominado “Sandbox Regulatório“, deixando claro de forma muito lúcida como a inteligência artificial pode impactar a experimentação prática de regras em ambientes protegidos, de forma a testar sua eficácia.
O fato é que o tema é tão complexo e merece tanta atenção das autoridades que não será surpresa alguma se for criada uma agência com o propósito específico de regular e monitorar a criação e o uso de inteligências artificiais doravante.