Conselho Europeu Aprova Lei sobre a Inteligência Artificial
May 29, 2024
Diferentemente do Mercosul, que não consegue evoluir como bloco econômico para o status de uma união política e monetária, mostrando inúmeras dificuldades em ampliar sua integração econômica e, especialmente, sócio-política, em razão da alternância de governos conservadores e progressistas, com ideologias absolutamente díspares, a União Europeia, apesar da saída do Reino Unido, segue dando exemplos de eficiência na integração de seus países de forma a regular assuntos fundamentais na incorporação de novas tecnologias que impactarão sobremaneira as relações pessoais, educacionais e profissionais. Estamos falando mais especificamente da inteligência artificial (IA).
Inteligência Artificial (IA) é o uso de tecnologia digital para criar sistemas capazes de executar tarefas que normalmente requerem inteligência humana. Algumas tecnologias de IA existem há algumas décadas, mas o desenvolvimento tecnológico dos computadores, a disponibilidade de grandes quantidades de dados e a proliferação de novos software levaram a avanços notáveis em um curtíssimo espaço de tempo.
A IA já se encontra em uso em diversos aspectos da vida cotidiana, como na previsão de desastres naturais, na assistência virtual, em traduções automáticas, no controle de qualidade da fabricação de bens, em diagnósticos médicos, em ferramentas de navegação veicular, entre outros, isso sem falar das ferramentas mais recentes que estão começando a se proliferar para ajudar indivíduos e pessoas jurídicas, de forma geral, em tudo que precisam. Falamos de ferramentas como ChatGPT, Copilot, Gemini, Claude e outras congêneres, com novidades brotando quase que diariamente.
Em 21 de maio de 2024, o Conselho Europeu aprovou uma lei denominada Artificial Intelligence Act (Lei da Inteligência Artificial), sendo a União Europeia inovadora na criação de uma lei destinada a regular e harmonizar as regras relativas à IA em seus Estados-membros. Mas não foi tarefa fácil. Alguns países da União Europeia, especialmente a Alemanha e a França, que abrigam diversas start-ups promissoras de IA, defenderam anteriormente a autorregulação em vez de restrições impostas pelo governo, preocupadas com o fato de uma regulamentação sufocante poder criar obstáculos ao progresso da Europa na competição com empresas chinesas e americanas no setor tecnológico.
A Linha do Tempo da Lei da Inteligência Artificial
Na verdade, as primeiras discussões sobre IA no Conselho Europeu começaram em 2020. Todavia, a Lei da Inteligência Artificial nasceu em 2021, quando o projeto da lei foi criado, dividindo a tecnologia em categorias de risco, que vão desde “inaceitável”, o que implicaria na proibição da referida tecnologia, até alto risco, médio risco e baixo risco. Sistemas de IA como a manipulação cognitivo-comportamental, a pontuação social, o policiamento preditivo baseado em perfis e sistemas que utilizam dados biométricos para categorizar pessoas de acordo com categorias específicas, como raça, religião ou orientação sexual, serão banidos da União Europeia porque seu risco é considerado inaceitável.
Abaixo é possível ver a linha do tempo da Lei da Inteligência Artificial:
A Classificação de Riscos da Lei da Inteligência Artificial
A seguir, temos alguns exemplos, consoante a classificação dos riscos:
CLASSIFICAÇÃO DO RISCO
EXEMPLOS
Inaceitável
Pontuação social, reconhecimento facial em certas
circunstâncias
Alto risco
Uso em transportes, para marcar exames, recrutamento,
concessão de empréstimos em certas circunstâncias
Médio risco
Chatbots (robôs de conversa)
Baixo risco
Vídeo games, filtros anti-spam
É importante salientar que a Lei da Inteligência Artificial não regulamentará ou afetará os sistemas de IA que apresentem baixo risco. Aqueles com risco médio e que demonstrarem haver riscos sistêmicos, enquadrando-se como limitados, estarão sujeitos a obrigações de transparência muito leves, como a divulgação de que o seu conteúdo foi gerado por IA, para que os usuários possam tomar decisões informadas sobre a utilização posterior; e isso inclui os sistemas destinados a interagir diretamente com seres humanos, de forma que sejam claramente marcados como tal, a menos que sua distinção seja óbvia para os indivíduos interagindo com ela.
Para entendermos melhor especialmente o que significa “inaceitável” e “alto risco”, é necessário considerar os detalhes apresentados abaixo:
CLASSIFICAÇÃO DO RISCO
DESCRIÇÃO
Inaceitável
1. São proibidas as seguintes práticas de IA:
a) A colocação no mercado, a entrada em serviço ou a
utilização de um sistema de IA que utilize técnicas
subliminares que vão além da consciência de uma pessoa ou
técnicas deliberadamente manipuladoras ou enganosas, com o
objetivo ou o efeito de distorcer materialmente o
comportamento de uma pessoa ou um grupo de pessoas,
prejudicando sensivelmente a sua capacidade de tomar uma
decisão informada, levando-as assim a tomar uma decisão que
de outra forma não teriam tomado de uma forma que cause
ou seja razoavelmente provável que cause a essa pessoa,
outra pessoa ou grupo de pessoas dano significativo;
(b) A colocação no mercado, a entrada em serviço ou a
utilização de um sistema de IA que explore qualquer uma
das vulnerabilidades de um indivíduo ou de um grupo
específico de pessoas devido à sua idade, deficiência ou a
uma situação social ou econômica específica, com o
objetivo, ou o efeito, de distorcer materialmente o
comportamento dessa pessoa ou de uma pessoa pertencente a
esse grupo de uma forma que cause ou tenha probabilidade
razoável de causar a essa pessoa ou a outra pessoa danos
significativos;
c) A colocação no mercado, a entrada em serviço ou a
utilização de sistemas de IA para a avaliação ou
classificação de indivíduos ou grupos de pessoas durante
um determinado período de tempo com base no seu
comportamento social ou em dados pessoais conhecidos,
inferidos ou previstos, características de personalidade,
com a pontuação social levando a um ou ambos os seguintes:
(i) tratamento prejudicial ou desfavorável de certos
indivíduos ou grupos de pessoas em contextos sociais que
não estão relacionados aos contextos em que os dados
foram originalmente gerados ou recolhidos;
(ii) tratamento prejudicial ou desfavorável de certos
indivíduos ou grupos de pessoas que seja injustificado ou
desproporcional ao seu comportamento social ou à sua
gravidade;
d) A colocação no mercado, a entrada em serviço para este
fim específico ou a utilização de um sistema de IA para
realizar avaliações de risco de indivíduos, a fim de
avaliar ou prever o risco de um indivíduo cometer uma
infração penal, com base unicamente na definição do perfil
de um indivíduo ou na avaliação dos seus traços e
características de personalidade; esta proibição não se
aplica aos sistemas de IA utilizados para apoiar a avaliação
humana do envolvimento de uma pessoa em uma atividade
criminosa, que já se baseia em fatos objetivos e
verificáveis diretamente ligados a uma atividade
criminosa;
(e) A colocação no mercado, a entrada em serviço para este
fim específico ou a utilização de sistemas de IA que
criem ou expandam bases de dados de reconhecimento facial
através do recolhimento não direcionado de imagens
faciais da Internet ou de imagens de CCTV;
(f) A colocação no mercado, a entrada em serviço para este
fim específico ou a utilização de sistemas de IA para
inferir emoções de um indivíduo nas áreas do local de
trabalho e das instituições de ensino, exceto quando a
utilização do sistema de IA se destinar a ser
implementada ou colocada no mercado por razões médicas ou
de segurança;
(g) A colocação no mercado, a entrada em serviço para este
fim específico ou a utilização de sistemas de
categorização biométrica que categorizem individualmente
indivíduos com base nos seus dados biométricos para deduzir
ou inferir a sua raça, opiniões políticas, filiação
sindical, religião ou crenças filosóficas, vida sexual ou
orientação sexual; esta proibição não abrange qualquer
rotulagem ou filtragem de conjuntos de dados biométricos
adquiridos legalmente, tais como imagens, com base em dados
biométricos ou categorização de dados biométricos no
domínio da aplicação da lei;
h) A utilização de sistemas de identificação biométrica
remota «em tempo real» em espaços acessíveis ao público
para efeitos de aplicação da lei, a menos que e na medida
em que tal utilização seja estritamente necessária para
um dos seguintes objetivos:
(i) a busca direcionada de vítimas específicas de rapto,
tráfico de seres humanos ou exploração sexual de seres
humanos, bem como a busca de pessoas desaparecidas;
(ii) a prevenção de uma ameaça específica, substancial e
iminente à vida ou à segurança física de pessoas
singulares ou de uma ameaça real e presente ou genuína e
previsível de um ataque terrorista;
(iii) a localização ou identificação de uma pessoa suspeita
de ter cometido uma infração penal, para efeitos de
investigação ou ação penal ou de execução de uma sanção
penal por infrações referidas no
Anexo II
e puníveis no Estado-membro em causa com pena privativa de
liberdade ou pena de detenção por um período máximo de pelo
menos quatro anos. A alínea h) do primeiro parágrafo não
prejudica o artigo 9.º do Regulamento (UE) 2016/679
relativo ao tratamento de dados biométricos para fins
diferentes da aplicação da lei.
2. A utilização de sistemas de identificação biométrica
remota «em tempo real» em espaços acessíveis ao público
para efeitos de aplicação da lei para qualquer um dos
objetivos referidos no n.º 1, primeiro parágrafo, alínea h),
deve ser utilizada para os fins definidos nesse ponto apenas
para confirmar a identidade da pessoa especificamente
visada, e deve ter em conta os seguintes elementos:
a) A natureza da situação que deu origem à possível
utilização, em especial a gravidade, a probabilidade e a
escala dos danos que seriam causados se o sistema não
fosse utilizado;
(b) As consequências da utilização do sistema para os
direitos e liberdades de todas as pessoas envolvidas, em
especial a gravidade, a probabilidade e a escala dessas
consequências. Além disso, a utilização de sistemas de
identificação biométrica remota «em tempo real» em espaços
acessíveis ao público para efeitos de aplicação da lei
para qualquer um dos objetivos referidos no n.º 1,
primeiro parágrafo, alínea h), do presente artigo deve
cumprir as salvaguardas e as condições necessárias e
proporcionais em relação à utilização de acordo com a
legislação nacional que autoriza a sua utilização, em
particular no que diz respeito às limitações temporais,
geográficas e pessoais. A utilização do sistema de
identificação biométrica remota «em tempo real» em
espaços acessíveis ao público só será autorizada se a
autoridade responsável pela aplicação da lei tiver concluído
uma avaliação de impacto nos direitos fundamentais, tal
como previsto no
artigo 27.º,
[FA1]
e tiver registrado o sistema na base de dados da UE de
acordo com
Artigo 49.º
. No entanto, em casos de urgência devidamente
justificados, a utilização de tais sistemas pode ser
iniciada sem registro na base de dados da UE, desde que esse
registro seja concluído sem demora injustificada.
3. Para efeitos do n.º 1, primeiro parágrafo, alínea h), e
do n.º 2, cada utilização, para efeitos de aplicação da
lei, de um sistema de identificação biométrica remota «em
tempo real» em espaços acessíveis ao público está sujeita
a uma autorização prévia, concedida por uma autoridade
judicial ou por uma autoridade administrativa
independente, cuja decisão vincula o Estado-membro em que
a utilização terá lugar, emitida mediante pedido
fundamentado e em conformidade com as regras detalhadas do
direito nacional referidas no n.º 5. No entanto, em uma
situação de urgência devidamente justificada, a
utilização desse sistema pode ser iniciada sem autorização,
desde que essa autorização seja solicitada sem demora
injustificada; o mais tardar, no prazo de 24 horas. Se
tal autorização for rejeitada, a utilização será
interrompida com efeitos imediatos e todos os dados, bem
como os resultados dessa utilização, serão imediatamente
descartados e eliminados. A autoridade judiciária
competente ou uma autoridade administrativa independente
cuja decisão seja vinculativa só concederá a autorização
quando se considerar, com base em provas objetivas ou em
indicações claras que lhe sejam apresentadas, que a
utilização do sistema de identificação biométrica remota
«em tempo real» em causa é necessária e proporcional à
consecução de um dos objetivos especificados no n.º 1,
primeiro parágrafo, alínea h), tal como identificado no
pedido e, em particular, permanece limitado ao
estritamente necessário no que diz respeito ao período de
tempo, assim como o âmbito geográfico e pessoal. Ao
decidir sobre o pedido, essa autoridade deve levar em
conta os elementos referidos no n.º 2. Nenhuma decisão que
produza efeitos jurídicos adversos para uma pessoa pode
ser tomada apenas com base nos resultados do sistema de
identificação biométrica remota «em tempo real».
4. Sem prejuízo do n.º 3, cada utilização de um sistema de
identificação biométrica remota «em tempo real» em
espaços acessíveis ao público para fins de aplicação da
lei deve ser notificada à autoridade de fiscalização do
mercado competente e à autoridade nacional de proteção de
dados, em conformidade com as regras nacionais, como
referido no n.º 5. A notificação deve conter, no mínimo,
as informações especificadas no n.º 6 e não deve incluir
dados operacionais sensíveis.
5. Um Estado-membro pode decidir prever a possibilidade de
autorizar total ou parcialmente a utilização de sistemas
de identificação biométrica remota «em tempo real» em
espaços acessíveis ao público para efeitos de aplicação da
lei, dentro dos limites e nas condições enumeradas no n.º 1,
primeiro parágrafo, alínea h), e n.ºs 2 e 3. Os
Estados-membros em causa devem estabelecer na sua
legislação nacional as regras pormenorizadas necessárias
para o pedido, a emissão e o exercício, bem como para a
supervisão e a comunicação de informações relativas às
autorizações referidas no n.º 3. Essas regras devem
também especificar relativamente a quais dos objetivos
enumerados no n.º 1, primeiro parágrafo, alínea h),
incluindo quais das infrações penais referidas na alínea
h), alínea iii), as autoridades competentes podem ser
autorizadas a utilizar esses sistemas para fins de
aplicação da lei. Os Estados-membros notificam essas regras
à Comissão, o mais tardar, 30 dias após a sua adoção. Os
Estados-membros podem introduzir, em conformidade com o
direito da União Europeia, leis mais restritivas sobre a
utilização de sistemas de identificação biométrica à
distância.
6. As autoridades nacionais de fiscalização do mercado e as
autoridades nacionais de proteção de dados dos
Estados-membros que tenham sido notificadas da utilização
de sistemas de identificação biométrica remota «em tempo
real» em espaços acessíveis ao público para fins de
aplicação da lei nos termos do n.º 4 devem apresentar à
Comissão anualmente relatórios sobre esse uso. Para esse
efeito, a Comissão fornece aos Estados-membros e às
autoridades nacionais de fiscalização do mercado e de
proteção de dados, um modelo que inclua informações sobre
o número de decisões tomadas pelas autoridades judiciais
competentes ou por uma autoridade administrativa
independente cuja decisão seja vinculativa para os pedidos
de autorizações em conformidade com o parágrafo 3 e seu
resultado.
7. A Comissão publica relatórios anuais sobre a utilização
de sistemas de identificação biométrica remota em tempo
real em espaços acessíveis ao público para fins de
aplicação da lei, com base em dados agregados nos
Estados-Membros, com base nos relatórios anuais referidos no
n.º 6. Esses relatórios anuais não devem incluir dados
operacionais sensíveis das atividades conexas de
aplicação da lei.
Alto Risco
1. Biometria, na medida em que a sua
utilização seja permitida ao abrigo da legislação nacional
ou da União Europeia aplicável:
a) Sistemas de identificação biométrica à distância. Isto
não inclui sistemas de IA destinados a serem utilizados
para verificação biométrica cujo único objetivo seja
confirmar que uma pessoa singular específica é a pessoa que
afirma ser;
(b) Sistemas de IA destinados a serem utilizados para
categorização biométrica, de acordo com atributos ou
características sensíveis ou protegidos com base na
inferência desses atributos ou características;
(c) Sistemas de IA destinados a serem utilizados para
reconhecimento de emoções.
2. Infraestruturas críticas: sistemas de
IA destinados a serem utilizados como componentes de
segurança na gestão e operação de infraestruturas
digitais críticas, no tráfego rodoviário ou no
fornecimento de água, gás, aquecimento ou eletricidade.
3. Educação e formação profissional:
(a) Sistemas de IA destinados a serem utilizados para
determinar o acesso ou a admissão ou para afetar
indivíduos a instituições de ensino e formação
profissional a todos os níveis;
(b) Sistemas de IA destinados a serem utilizados para
avaliar os resultados da aprendizagem, inclusive quando
esses resultados são utilizados para orientar o processo
de aprendizagem de indivíduos em instituições de ensino e
formação profissional a todos os níveis;
(c) Sistemas de IA destinados a serem utilizados para
avaliar o nível adequado de educação que um indivíduo
receberá ou poderá aceder, no contexto ou dentro de
instituições de ensino e formação profissional a todos os
níveis;
(d) Sistemas de IA destinados a serem utilizados para
monitorar e detectar comportamentos proibidos de
estudantes durante testes no contexto ou dentro de
instituições de ensino e formação profissional a todos os
níveis.
4.
Emprego, gestão de trabalhadores e acesso ao trabalho
independente
:
(a) Sistemas de IA destinados a serem utilizados para o
recrutamento ou seleção de indivíduos, em especial para
colocar anúncios de emprego direcionados, analisar e
filtrar candidaturas de emprego e avaliar candidatos;
(b) Sistemas de IA destinados a serem utilizados para tomar
decisões que afetem os termos das relações profissionais,
a promoção ou cessação de relações contratuais
relacionadas ao trabalho, para atribuir tarefas com base
no comportamento individual ou em traços ou características
pessoais ou para monitorar e avaliar o desempenho e
comportamento das pessoas em tais relacionamentos.
5.
Acesso e usufruto de serviços privados essenciais e
serviços e benefícios públicos essenciais
:
(a) Sistemas de IA destinados a serem utilizados por
autoridades públicas ou em nome de autoridades públicas
para avaliar a elegibilidade de indivíduos para
benefícios e serviços essenciais de assistência pública,
incluindo serviços de saúde, bem como para conceder,
reduzir, revogar ou recuperar tais benefícios e serviços;
(b) Sistemas de IA destinados a serem utilizados para
avaliar a solvência de indivíduos ou estabelecer a sua
pontuação de crédito, com exceção dos sistemas de IA
utilizados para efeitos de detecção de fraudes financeiras;
(c) Sistemas de IA destinados a serem utilizados para
avaliação de riscos e fixação de preços em relação a
indivíduos no caso de seguros de vida e de saúde;
(d) Sistemas de IA destinados a avaliar e classificar
chamadas de emergência efetuadas por indivíduos ou a
serem utilizados para enviar, ou para estabelecer
prioridade no envio de serviços de primeira resposta de
emergência, incluindo pela polícia, bombeiros e ajuda
médica, bem como de serviços de emergência e sistemas de
triagem de pacientes de saúde.
6.
Aplicação da lei, na medida em que a sua utilização
seja permitida ao abrigo da legislação nacional ou da
União Europeia aplicável
:
a) Sistemas de IA destinados a serem utilizados pelas
autoridades responsáveis pela aplicação da lei ou em
seu nome, ou pelas instituições, órgãos, organismos ou
agências da União Europeia em apoio às autoridades
responsáveis pela aplicação da lei ou em seu nome, para
avaliar o risco de um indivíduo se tornar vítima de
infrações penais;
(b) Sistemas de IA destinados a serem utilizados por ou em
nome das autoridades responsáveis pela aplicação da lei
ou pelas instituições, órgãos, organismos ou agências da
União Europeia em apoio às autoridades responsáveis
pela aplicação da lei, como polígrafos ou ferramentas
semelhantes;
c) Sistemas de IA destinados a serem utilizados por ou em
nome das autoridades responsáveis pela aplicação da
lei, ou pelas instituições, órgãos, organismos ou
agências da União, em apoio às autoridades responsáveis
pela aplicação da lei, para avaliar a confiabilidade das
provas no decurso da investigação ou da ação penal contra
infrações penais;
(d) Sistemas de IA destinados a serem utilizados pelas
autoridades responsáveis pela aplicação da lei ou em
seu nome ou pelas instituições, órgãos, organismos ou
agências da União em apoio às autoridades responsáveis
pela aplicação da lei para avaliar o risco de um indivíduo
cometer ou reincidir, não apenas com base na definição de
perfis de indivíduos, tal como referido no artigo 3.º,
n.º 4, da Diretriz (UE) 2016/680, ou para avaliar traços
e características de personalidade ou comportamentos
criminosos anteriores de pessoas singulares ou grupos;
(e) Sistemas de IA destinados a serem utilizados por ou em
nome das autoridades responsáveis pela aplicação da lei
ou por instituições, órgãos, organismos ou agências da
União em apoio às autoridades responsáveis pela
aplicação da lei para a definição de perfis de indivíduos,
tal como referido no artigo 3.º, n.º 4, da Diretriz (UE)
2016/680 no decurso da detecção, investigação ou
repressão de infrações penais.
7.
Gestão da migração, do asilo e do controle das
fronteiras, na medida em que a sua utilização seja
permitida ao abrigo da legislação nacional ou da
União Europeia aplicável
:
(a) Sistemas de IA destinados a serem utilizados por ou em
nome de autoridades públicas competentes ou por
instituições, órgãos, organismos ou agências da União
Europeia como polígrafos ou ferramentas semelhantes;
(b) Sistemas de IA destinados a serem utilizados por ou em
nome de autoridades públicas competentes ou por
instituições, órgãos, organismos ou agências da União
Europeia para avaliar um risco, incluindo um risco de
segurança, um risco de migração irregular ou um risco para a
saúde, apresentado por um indivíduo que pretenda entrar
ou tenha entrado no território de um Estado-membro;
(c) Sistemas de IA destinados a serem utilizados por ou em
nome de autoridades públicas competentes ou por
instituições, órgãos, organismos ou agências da União
Europeia para ajudar as autoridades públicas competentes na
análise de pedidos de asilo, de visto ou de autorização de
residência e para reclamações associadas no que diz
respeito à elegibilidade dos indivíduos que solicitam
cidadania, incluindo avaliações conexas da confiabilidade
das provas;
d) Sistemas de IA destinados a serem utilizados por ou em
nome de autoridades públicas competentes, ou por
instituições, órgãos, organismos ou agências da União
Europeia, no contexto da migração, do asilo ou da gestão do
controle das fronteiras, para efeitos de detecção,
reconhecimento ou identificação de indivíduos, com
exceção da verificação de documentos de viagem.
8.
Administração da justiça e processos democráticos:
(a) Sistemas de IA destinados a serem utilizados por uma
autoridade judicial ou em seu nome para ajudar uma
autoridade judicial na investigação e interpretação de
fatos e da lei e na aplicação da lei a um conjunto concreto
de fatos, ou a serem utilizados de forma semelhante na
resolução alternativa de litígios;
(b) Sistemas de IA destinados a influenciar o resultado de
uma eleição ou referendo ou o comportamento eleitoral de
indivíduos no exercício do seu voto em eleições ou
referendos. Isto não inclui sistemas de IA aos quais os
indivíduos não estão diretamente expostos, tais como
ferramentas utilizadas para organizar, otimizar ou
estruturar campanhas políticas do ponto de vista
administrativo ou logístico.
A Lei de Inteligência Artificial também aborda o uso de modelos de IA de uso geral (GPAI). Os modelos GPAI que não apresentam riscos sistêmicos estarão sujeitos a alguns requisitos limitados, por exemplo no que diz respeito à transparência, mas aqueles com riscos sistêmicos terão de cumprir regras mais rigorosas.
Enquanto os desenvolvedores e implementadores cuja tecnologia se enquadre em inaceitável terão que interromper o desenvolvimento de tal tecnologia, os desenvolvedores e implementadores cuja tecnologia se enquadre em alto risco devem estar preparados para cumprir os seguintes requisitos da Lei de Inteligência Artificial:
1. registrar-se na base de dados centralizada da União Europeia.
2. ter um sistema de gestão de qualidade compatível em vigor.
3. manter documentação e registros adequados.
4. passar por avaliações de compliance relevantes.
5. cumprir as restrições ao uso de inteligência artificial de alto risco.
6. continuar a garantir o compliance regulatório e estar preparado para demonstrar tal compliance mediante solicitação.
Conforme a CNBC confirmou em seu excelente artigo jornalístico sobre a regulação da IA, os governos temem a possibilidade de deepfakes, ou seja, formas de IA que geram eventos falsos, incluindo fotos e vídeos, sendo implementadas em eleições globais a cargos políticos importantes este ano.
Criação da Governança de Inteligência Artificial
Recentemente, foi criado o Gabinete de Inteligência Artificial da União Europeia, que desempenhará um papel fundamental na implementação da Lei da Inteligência Artificial, apoiando os órgãos de governança dos Estados-membros nas suas tarefas e aplicando as regras para modelos de IA de uso geral. Essas prerrogativas são suportadas pelos poderes conferidos pela Lei da Inteligência Artificial, incluindo a capacidade de realizar avaliações de modelos de IA de uso geral, solicitar informações e medidas aos fornecedores de modelos e aplicar sanções. O Gabinete também promoverá um ecossistema inovador de IA confiável, para colher os benefícios sociais e econômicos, garantindo uma abordagem europeia estratégica, coerente e eficaz em matéria de IA a nível internacional, tornando-se um ponto de referência mundial.
O Gabinete também terá o apoio de um painel científico de peritos independentes que apoiarão as atividades de fiscalização.
Foi igualmente criado um Conselho de Inteligência Artificial, com representantes dos Estados-membros para aconselhar e ajudar a Comissão Europeia e os Estados-membros na aplicação consistente e eficaz da Lei da Inteligência Artificial.
Por fim, foi estabelecido um fórum consultivo para as partes interessadas, incluindo indivíduos e pessoas jurídicas, fornecerem conhecimentos técnicos ao Conselho de Inteligência Artificial e à Comissão Europeia.
Penalidades por Violação da Lei da Inteligência Artificial
As multas por infrações à Lei da Inteligência Artificial serão fixadas em até 7% do volume de negócios anual global da empresa infratora no exercício anterior ou em um montante pré-determinado de EUR 35.000.000,00, o que for maior. As pequenas e médias empresas (PME) e as start-ups estarão sujeitas a multas administrativas proporcionais ou ao montante pré-determinado, mas, ao contrário, sempre o que for menor.
Aliás, o fornecimento de informações incorretas, incompletas ou enganosas aos organismos notificados ou às autoridades nacionais competentes em resposta a um pedido está sujeito a multas administrativas de até 7.500. 000,00 EUR ou, se o infrator for uma empresa, até 1 % do valor o seu volume de negócios anual total a nível mundial relativo ao exercício financeiro anterior, consoante o que for mais elevado.
Para a dosimetria da penalidade, os seguintes parâmetros devem ser considerados:
1. A natureza, a gravidade e a duração da infração e das suas consequências, tendo em conta a finalidade do sistema de IA, bem como, se for caso disso, o número de pessoas afetadas e o nível dos danos por elas sofridos.
2. Se já foram aplicadas multas administrativas por outras autoridades de fiscalização do mercado ao mesmo operador pela mesma infração.
3. Se já foram aplicadas multas administrativas por outras autoridades ao mesmo operador por infrações a outro direito da União Europeia ou da legislação nacional, quando essas infrações resultem da mesma atividade ou omissão que constitua uma infração relevante ao presente regulamento.
4. A dimensão, o volume de negócios anual e a quota de mercado do operador que comete a infração.
5. Qualquer outro fator agravante ou atenuante aplicável às circunstâncias do caso, tais como benefícios financeiros obtidos ou perdas evitadas, direta ou indiretamente, decorrentes da infração.
6. O grau de cooperação com as autoridades nacionais competentes, a fim de remediar a infração e atenuar os possíveis efeitos adversos da infração.
7. O grau de responsabilidade do operador, tendo em conta as medidas técnicas e organizacionais por ele implementadas.
8. A forma como as autoridades nacionais competentes tomaram conhecimento da infração, nomeadamente se, e em caso afirmativo, em que medida, o operador notificou a infração.
9. O caráter intencional ou negligente da infração.
10. Qualquer ação tomada pelo operador para mitigar os danos sofridos pelas pessoas afetadas.
Diferentemente do Mercosul, que não consegue evoluir como bloco econômico para o status de uma união política e monetária, mostrando inúmeras dificuldades em ampliar sua integração econômica e, especialmente, sócio-política, em razão da alternância de governos conservadores e progressistas, com ideologias absolutamente díspares, a União Europeia, apesar da saída do Reino Unido, segue dando exemplos de eficiência na integração de seus países de forma a regular assuntos fundamentais na incorporação de novas tecnologias que impactarão sobremaneira as relações pessoais, educacionais e profissionais. Estamos falando mais especificamente da inteligência artificial (IA).
Inteligência Artificial (IA) é o uso de tecnologia digital para criar sistemas capazes de executar tarefas que normalmente requerem inteligência humana. Algumas tecnologias de IA existem há algumas décadas, mas o desenvolvimento tecnológico dos computadores, a disponibilidade de grandes quantidades de dados e a proliferação de novos software levaram a avanços notáveis em um curtíssimo espaço de tempo.
A IA já se encontra em uso em diversos aspectos da vida cotidiana, como na previsão de desastres naturais, na assistência virtual, em traduções automáticas, no controle de qualidade da fabricação de bens, em diagnósticos médicos, em ferramentas de navegação veicular, entre outros, isso sem falar das ferramentas mais recentes que estão começando a se proliferar para ajudar indivíduos e pessoas jurídicas, de forma geral, em tudo que precisam. Falamos de ferramentas como ChatGPT, Copilot, Gemini, Claude e outras congêneres, com novidades brotando quase que diariamente.
Em 21 de maio de 2024, o Conselho Europeu aprovou uma lei denominada Artificial Intelligence Act (Lei da Inteligência Artificial), sendo a União Europeia inovadora na criação de uma lei destinada a regular e harmonizar as regras relativas à IA em seus Estados-membros. Mas não foi tarefa fácil. Alguns países da União Europeia, especialmente a Alemanha e a França, que abrigam diversas start-ups promissoras de IA, defenderam anteriormente a autorregulação em vez de restrições impostas pelo governo, preocupadas com o fato de uma regulamentação sufocante poder criar obstáculos ao progresso da Europa na competição com empresas chinesas e americanas no setor tecnológico.
A Linha do Tempo da Lei da Inteligência Artificial
Na verdade, as primeiras discussões sobre IA no Conselho Europeu começaram em 2020. Todavia, a Lei da Inteligência Artificial nasceu em 2021, quando o projeto da lei foi criado, dividindo a tecnologia em categorias de risco, que vão desde “inaceitável”, o que implicaria na proibição da referida tecnologia, até alto risco, médio risco e baixo risco. Sistemas de IA como a manipulação cognitivo-comportamental, a pontuação social, o policiamento preditivo baseado em perfis e sistemas que utilizam dados biométricos para categorizar pessoas de acordo com categorias específicas, como raça, religião ou orientação sexual, serão banidos da União Europeia porque seu risco é considerado inaceitável.
Abaixo é possível ver a linha do tempo da Lei da Inteligência Artificial:
A Classificação de Riscos da Lei da Inteligência Artificial
A seguir, temos alguns exemplos, consoante a classificação dos riscos:
CLASSIFICAÇÃO DO RISCO
EXEMPLOS
Inaceitável
Pontuação social, reconhecimento facial em certas
circunstâncias
Alto risco
Uso em transportes, para marcar exames, recrutamento,
concessão de empréstimos em certas circunstâncias
Médio risco
Chatbots (robôs de conversa)
Baixo risco
Vídeo games, filtros anti-spam
É importante salientar que a Lei da Inteligência Artificial não regulamentará ou afetará os sistemas de IA que apresentem baixo risco. Aqueles com risco médio e que demonstrarem haver riscos sistêmicos, enquadrando-se como limitados, estarão sujeitos a obrigações de transparência muito leves, como a divulgação de que o seu conteúdo foi gerado por IA, para que os usuários possam tomar decisões informadas sobre a utilização posterior; e isso inclui os sistemas destinados a interagir diretamente com seres humanos, de forma que sejam claramente marcados como tal, a menos que sua distinção seja óbvia para os indivíduos interagindo com ela.
Para entendermos melhor especialmente o que significa “inaceitável” e “alto risco”, é necessário considerar os detalhes apresentados abaixo:
CLASSIFICAÇÃO DO RISCO
DESCRIÇÃO
Inaceitável
1. São proibidas as seguintes práticas de IA:
a) A colocação no mercado, a entrada em serviço ou a
utilização de um sistema de IA que utilize técnicas
subliminares que vão além da consciência de uma pessoa ou
técnicas deliberadamente manipuladoras ou enganosas, com o
objetivo ou o efeito de distorcer materialmente o
comportamento de uma pessoa ou um grupo de pessoas,
prejudicando sensivelmente a sua capacidade de tomar uma
decisão informada, levando-as assim a tomar uma decisão que
de outra forma não teriam tomado de uma forma que cause
ou seja razoavelmente provável que cause a essa pessoa,
outra pessoa ou grupo de pessoas dano significativo;
(b) A colocação no mercado, a entrada em serviço ou a
utilização de um sistema de IA que explore qualquer uma
das vulnerabilidades de um indivíduo ou de um grupo
específico de pessoas devido à sua idade, deficiência ou a
uma situação social ou econômica específica, com o
objetivo, ou o efeito, de distorcer materialmente o
comportamento dessa pessoa ou de uma pessoa pertencente a
esse grupo de uma forma que cause ou tenha probabilidade
razoável de causar a essa pessoa ou a outra pessoa danos
significativos;
c) A colocação no mercado, a entrada em serviço ou a
utilização de sistemas de IA para a avaliação ou
classificação de indivíduos ou grupos de pessoas durante
um determinado período de tempo com base no seu
comportamento social ou em dados pessoais conhecidos,
inferidos ou previstos, características de personalidade,
com a pontuação social levando a um ou ambos os seguintes:
(i) tratamento prejudicial ou desfavorável de certos
indivíduos ou grupos de pessoas em contextos sociais que
não estão relacionados aos contextos em que os dados
foram originalmente gerados ou recolhidos;
(ii) tratamento prejudicial ou desfavorável de certos
indivíduos ou grupos de pessoas que seja injustificado ou
desproporcional ao seu comportamento social ou à sua
gravidade;
d) A colocação no mercado, a entrada em serviço para este
fim específico ou a utilização de um sistema de IA para
realizar avaliações de risco de indivíduos, a fim de
avaliar ou prever o risco de um indivíduo cometer uma
infração penal, com base unicamente na definição do perfil
de um indivíduo ou na avaliação dos seus traços e
características de personalidade; esta proibição não se
aplica aos sistemas de IA utilizados para apoiar a avaliação
humana do envolvimento de uma pessoa em uma atividade
criminosa, que já se baseia em fatos objetivos e
verificáveis diretamente ligados a uma atividade
criminosa;
(e) A colocação no mercado, a entrada em serviço para este
fim específico ou a utilização de sistemas de IA que
criem ou expandam bases de dados de reconhecimento facial
através do recolhimento não direcionado de imagens
faciais da Internet ou de imagens de CCTV;
(f) A colocação no mercado, a entrada em serviço para este
fim específico ou a utilização de sistemas de IA para
inferir emoções de um indivíduo nas áreas do local de
trabalho e das instituições de ensino, exceto quando a
utilização do sistema de IA se destinar a ser
implementada ou colocada no mercado por razões médicas ou
de segurança;
(g) A colocação no mercado, a entrada em serviço para este
fim específico ou a utilização de sistemas de
categorização biométrica que categorizem individualmente
indivíduos com base nos seus dados biométricos para deduzir
ou inferir a sua raça, opiniões políticas, filiação
sindical, religião ou crenças filosóficas, vida sexual ou
orientação sexual; esta proibição não abrange qualquer
rotulagem ou filtragem de conjuntos de dados biométricos
adquiridos legalmente, tais como imagens, com base em dados
biométricos ou categorização de dados biométricos no
domínio da aplicação da lei;
h) A utilização de sistemas de identificação biométrica
remota «em tempo real» em espaços acessíveis ao público
para efeitos de aplicação da lei, a menos que e na medida
em que tal utilização seja estritamente necessária para
um dos seguintes objetivos:
(i) a busca direcionada de vítimas específicas de rapto,
tráfico de seres humanos ou exploração sexual de seres
humanos, bem como a busca de pessoas desaparecidas;
(ii) a prevenção de uma ameaça específica, substancial e
iminente à vida ou à segurança física de pessoas
singulares ou de uma ameaça real e presente ou genuína e
previsível de um ataque terrorista;
(iii) a localização ou identificação de uma pessoa suspeita
de ter cometido uma infração penal, para efeitos de
investigação ou ação penal ou de execução de uma sanção
penal por infrações referidas no
Anexo II
e puníveis no Estado-membro em causa com pena privativa de
liberdade ou pena de detenção por um período máximo de pelo
menos quatro anos. A alínea h) do primeiro parágrafo não
prejudica o artigo 9.º do Regulamento (UE) 2016/679
relativo ao tratamento de dados biométricos para fins
diferentes da aplicação da lei.
2. A utilização de sistemas de identificação biométrica
remota «em tempo real» em espaços acessíveis ao público
para efeitos de aplicação da lei para qualquer um dos
objetivos referidos no n.º 1, primeiro parágrafo, alínea h),
deve ser utilizada para os fins definidos nesse ponto apenas
para confirmar a identidade da pessoa especificamente
visada, e deve ter em conta os seguintes elementos:
a) A natureza da situação que deu origem à possível
utilização, em especial a gravidade, a probabilidade e a
escala dos danos que seriam causados se o sistema não
fosse utilizado;
(b) As consequências da utilização do sistema para os
direitos e liberdades de todas as pessoas envolvidas, em
especial a gravidade, a probabilidade e a escala dessas
consequências. Além disso, a utilização de sistemas de
identificação biométrica remota «em tempo real» em espaços
acessíveis ao público para efeitos de aplicação da lei
para qualquer um dos objetivos referidos no n.º 1,
primeiro parágrafo, alínea h), do presente artigo deve
cumprir as salvaguardas e as condições necessárias e
proporcionais em relação à utilização de acordo com a
legislação nacional que autoriza a sua utilização, em
particular no que diz respeito às limitações temporais,
geográficas e pessoais. A utilização do sistema de
identificação biométrica remota «em tempo real» em
espaços acessíveis ao público só será autorizada se a
autoridade responsável pela aplicação da lei tiver concluído
uma avaliação de impacto nos direitos fundamentais, tal
como previsto no
artigo 27.º,
[FA1]
e tiver registrado o sistema na base de dados da UE de
acordo com
Artigo 49.º
. No entanto, em casos de urgência devidamente
justificados, a utilização de tais sistemas pode ser
iniciada sem registro na base de dados da UE, desde que esse
registro seja concluído sem demora injustificada.
3. Para efeitos do n.º 1, primeiro parágrafo, alínea h), e
do n.º 2, cada utilização, para efeitos de aplicação da
lei, de um sistema de identificação biométrica remota «em
tempo real» em espaços acessíveis ao público está sujeita
a uma autorização prévia, concedida por uma autoridade
judicial ou por uma autoridade administrativa
independente, cuja decisão vincula o Estado-membro em que
a utilização terá lugar, emitida mediante pedido
fundamentado e em conformidade com as regras detalhadas do
direito nacional referidas no n.º 5. No entanto, em uma
situação de urgência devidamente justificada, a
utilização desse sistema pode ser iniciada sem autorização,
desde que essa autorização seja solicitada sem demora
injustificada; o mais tardar, no prazo de 24 horas. Se
tal autorização for rejeitada, a utilização será
interrompida com efeitos imediatos e todos os dados, bem
como os resultados dessa utilização, serão imediatamente
descartados e eliminados. A autoridade judiciária
competente ou uma autoridade administrativa independente
cuja decisão seja vinculativa só concederá a autorização
quando se considerar, com base em provas objetivas ou em
indicações claras que lhe sejam apresentadas, que a
utilização do sistema de identificação biométrica remota
«em tempo real» em causa é necessária e proporcional à
consecução de um dos objetivos especificados no n.º 1,
primeiro parágrafo, alínea h), tal como identificado no
pedido e, em particular, permanece limitado ao
estritamente necessário no que diz respeito ao período de
tempo, assim como o âmbito geográfico e pessoal. Ao
decidir sobre o pedido, essa autoridade deve levar em
conta os elementos referidos no n.º 2. Nenhuma decisão que
produza efeitos jurídicos adversos para uma pessoa pode
ser tomada apenas com base nos resultados do sistema de
identificação biométrica remota «em tempo real».
4. Sem prejuízo do n.º 3, cada utilização de um sistema de
identificação biométrica remota «em tempo real» em
espaços acessíveis ao público para fins de aplicação da
lei deve ser notificada à autoridade de fiscalização do
mercado competente e à autoridade nacional de proteção de
dados, em conformidade com as regras nacionais, como
referido no n.º 5. A notificação deve conter, no mínimo,
as informações especificadas no n.º 6 e não deve incluir
dados operacionais sensíveis.
5. Um Estado-membro pode decidir prever a possibilidade de
autorizar total ou parcialmente a utilização de sistemas
de identificação biométrica remota «em tempo real» em
espaços acessíveis ao público para efeitos de aplicação da
lei, dentro dos limites e nas condições enumeradas no n.º 1,
primeiro parágrafo, alínea h), e n.ºs 2 e 3. Os
Estados-membros em causa devem estabelecer na sua
legislação nacional as regras pormenorizadas necessárias
para o pedido, a emissão e o exercício, bem como para a
supervisão e a comunicação de informações relativas às
autorizações referidas no n.º 3. Essas regras devem
também especificar relativamente a quais dos objetivos
enumerados no n.º 1, primeiro parágrafo, alínea h),
incluindo quais das infrações penais referidas na alínea
h), alínea iii), as autoridades competentes podem ser
autorizadas a utilizar esses sistemas para fins de
aplicação da lei. Os Estados-membros notificam essas regras
à Comissão, o mais tardar, 30 dias após a sua adoção. Os
Estados-membros podem introduzir, em conformidade com o
direito da União Europeia, leis mais restritivas sobre a
utilização de sistemas de identificação biométrica à
distância.
6. As autoridades nacionais de fiscalização do mercado e as
autoridades nacionais de proteção de dados dos
Estados-membros que tenham sido notificadas da utilização
de sistemas de identificação biométrica remota «em tempo
real» em espaços acessíveis ao público para fins de
aplicação da lei nos termos do n.º 4 devem apresentar à
Comissão anualmente relatórios sobre esse uso. Para esse
efeito, a Comissão fornece aos Estados-membros e às
autoridades nacionais de fiscalização do mercado e de
proteção de dados, um modelo que inclua informações sobre
o número de decisões tomadas pelas autoridades judiciais
competentes ou por uma autoridade administrativa
independente cuja decisão seja vinculativa para os pedidos
de autorizações em conformidade com o parágrafo 3 e seu
resultado.
7. A Comissão publica relatórios anuais sobre a utilização
de sistemas de identificação biométrica remota em tempo
real em espaços acessíveis ao público para fins de
aplicação da lei, com base em dados agregados nos
Estados-Membros, com base nos relatórios anuais referidos no
n.º 6. Esses relatórios anuais não devem incluir dados
operacionais sensíveis das atividades conexas de
aplicação da lei.
Alto Risco
1. Biometria, na medida em que a sua
utilização seja permitida ao abrigo da legislação nacional
ou da União Europeia aplicável:
a) Sistemas de identificação biométrica à distância. Isto
não inclui sistemas de IA destinados a serem utilizados
para verificação biométrica cujo único objetivo seja
confirmar que uma pessoa singular específica é a pessoa que
afirma ser;
(b) Sistemas de IA destinados a serem utilizados para
categorização biométrica, de acordo com atributos ou
características sensíveis ou protegidos com base na
inferência desses atributos ou características;
(c) Sistemas de IA destinados a serem utilizados para
reconhecimento de emoções.
2. Infraestruturas críticas: sistemas de
IA destinados a serem utilizados como componentes de
segurança na gestão e operação de infraestruturas
digitais críticas, no tráfego rodoviário ou no
fornecimento de água, gás, aquecimento ou eletricidade.
3. Educação e formação profissional:
(a) Sistemas de IA destinados a serem utilizados para
determinar o acesso ou a admissão ou para afetar
indivíduos a instituições de ensino e formação
profissional a todos os níveis;
(b) Sistemas de IA destinados a serem utilizados para
avaliar os resultados da aprendizagem, inclusive quando
esses resultados são utilizados para orientar o processo
de aprendizagem de indivíduos em instituições de ensino e
formação profissional a todos os níveis;
(c) Sistemas de IA destinados a serem utilizados para
avaliar o nível adequado de educação que um indivíduo
receberá ou poderá aceder, no contexto ou dentro de
instituições de ensino e formação profissional a todos os
níveis;
(d) Sistemas de IA destinados a serem utilizados para
monitorar e detectar comportamentos proibidos de
estudantes durante testes no contexto ou dentro de
instituições de ensino e formação profissional a todos os
níveis.
4.
Emprego, gestão de trabalhadores e acesso ao trabalho
independente
:
(a) Sistemas de IA destinados a serem utilizados para o
recrutamento ou seleção de indivíduos, em especial para
colocar anúncios de emprego direcionados, analisar e
filtrar candidaturas de emprego e avaliar candidatos;
(b) Sistemas de IA destinados a serem utilizados para tomar
decisões que afetem os termos das relações profissionais,
a promoção ou cessação de relações contratuais
relacionadas ao trabalho, para atribuir tarefas com base
no comportamento individual ou em traços ou características
pessoais ou para monitorar e avaliar o desempenho e
comportamento das pessoas em tais relacionamentos.
5.
Acesso e usufruto de serviços privados essenciais e
serviços e benefícios públicos essenciais
:
(a) Sistemas de IA destinados a serem utilizados por
autoridades públicas ou em nome de autoridades públicas
para avaliar a elegibilidade de indivíduos para
benefícios e serviços essenciais de assistência pública,
incluindo serviços de saúde, bem como para conceder,
reduzir, revogar ou recuperar tais benefícios e serviços;
(b) Sistemas de IA destinados a serem utilizados para
avaliar a solvência de indivíduos ou estabelecer a sua
pontuação de crédito, com exceção dos sistemas de IA
utilizados para efeitos de detecção de fraudes financeiras;
(c) Sistemas de IA destinados a serem utilizados para
avaliação de riscos e fixação de preços em relação a
indivíduos no caso de seguros de vida e de saúde;
(d) Sistemas de IA destinados a avaliar e classificar
chamadas de emergência efetuadas por indivíduos ou a
serem utilizados para enviar, ou para estabelecer
prioridade no envio de serviços de primeira resposta de
emergência, incluindo pela polícia, bombeiros e ajuda
médica, bem como de serviços de emergência e sistemas de
triagem de pacientes de saúde.
6.
Aplicação da lei, na medida em que a sua utilização
seja permitida ao abrigo da legislação nacional ou da
União Europeia aplicável
:
a) Sistemas de IA destinados a serem utilizados pelas
autoridades responsáveis pela aplicação da lei ou em
seu nome, ou pelas instituições, órgãos, organismos ou
agências da União Europeia em apoio às autoridades
responsáveis pela aplicação da lei ou em seu nome, para
avaliar o risco de um indivíduo se tornar vítima de
infrações penais;
(b) Sistemas de IA destinados a serem utilizados por ou em
nome das autoridades responsáveis pela aplicação da lei
ou pelas instituições, órgãos, organismos ou agências da
União Europeia em apoio às autoridades responsáveis
pela aplicação da lei, como polígrafos ou ferramentas
semelhantes;
c) Sistemas de IA destinados a serem utilizados por ou em
nome das autoridades responsáveis pela aplicação da
lei, ou pelas instituições, órgãos, organismos ou
agências da União, em apoio às autoridades responsáveis
pela aplicação da lei, para avaliar a confiabilidade das
provas no decurso da investigação ou da ação penal contra
infrações penais;
(d) Sistemas de IA destinados a serem utilizados pelas
autoridades responsáveis pela aplicação da lei ou em
seu nome ou pelas instituições, órgãos, organismos ou
agências da União em apoio às autoridades responsáveis
pela aplicação da lei para avaliar o risco de um indivíduo
cometer ou reincidir, não apenas com base na definição de
perfis de indivíduos, tal como referido no artigo 3.º,
n.º 4, da Diretriz (UE) 2016/680, ou para avaliar traços
e características de personalidade ou comportamentos
criminosos anteriores de pessoas singulares ou grupos;
(e) Sistemas de IA destinados a serem utilizados por ou em
nome das autoridades responsáveis pela aplicação da lei
ou por instituições, órgãos, organismos ou agências da
União em apoio às autoridades responsáveis pela
aplicação da lei para a definição de perfis de indivíduos,
tal como referido no artigo 3.º, n.º 4, da Diretriz (UE)
2016/680 no decurso da detecção, investigação ou
repressão de infrações penais.
7.
Gestão da migração, do asilo e do controle das
fronteiras, na medida em que a sua utilização seja
permitida ao abrigo da legislação nacional ou da
União Europeia aplicável
:
(a) Sistemas de IA destinados a serem utilizados por ou em
nome de autoridades públicas competentes ou por
instituições, órgãos, organismos ou agências da União
Europeia como polígrafos ou ferramentas semelhantes;
(b) Sistemas de IA destinados a serem utilizados por ou em
nome de autoridades públicas competentes ou por
instituições, órgãos, organismos ou agências da União
Europeia para avaliar um risco, incluindo um risco de
segurança, um risco de migração irregular ou um risco para a
saúde, apresentado por um indivíduo que pretenda entrar
ou tenha entrado no território de um Estado-membro;
(c) Sistemas de IA destinados a serem utilizados por ou em
nome de autoridades públicas competentes ou por
instituições, órgãos, organismos ou agências da União
Europeia para ajudar as autoridades públicas competentes na
análise de pedidos de asilo, de visto ou de autorização de
residência e para reclamações associadas no que diz
respeito à elegibilidade dos indivíduos que solicitam
cidadania, incluindo avaliações conexas da confiabilidade
das provas;
d) Sistemas de IA destinados a serem utilizados por ou em
nome de autoridades públicas competentes, ou por
instituições, órgãos, organismos ou agências da União
Europeia, no contexto da migração, do asilo ou da gestão do
controle das fronteiras, para efeitos de detecção,
reconhecimento ou identificação de indivíduos, com
exceção da verificação de documentos de viagem.
8.
Administração da justiça e processos democráticos:
(a) Sistemas de IA destinados a serem utilizados por uma
autoridade judicial ou em seu nome para ajudar uma
autoridade judicial na investigação e interpretação de
fatos e da lei e na aplicação da lei a um conjunto concreto
de fatos, ou a serem utilizados de forma semelhante na
resolução alternativa de litígios;
(b) Sistemas de IA destinados a influenciar o resultado de
uma eleição ou referendo ou o comportamento eleitoral de
indivíduos no exercício do seu voto em eleições ou
referendos. Isto não inclui sistemas de IA aos quais os
indivíduos não estão diretamente expostos, tais como
ferramentas utilizadas para organizar, otimizar ou
estruturar campanhas políticas do ponto de vista
administrativo ou logístico.
A Lei de Inteligência Artificial também aborda o uso de modelos de IA de uso geral (GPAI). Os modelos GPAI que não apresentam riscos sistêmicos estarão sujeitos a alguns requisitos limitados, por exemplo no que diz respeito à transparência, mas aqueles com riscos sistêmicos terão de cumprir regras mais rigorosas.
Enquanto os desenvolvedores e implementadores cuja tecnologia se enquadre em inaceitável terão que interromper o desenvolvimento de tal tecnologia, os desenvolvedores e implementadores cuja tecnologia se enquadre em alto risco devem estar preparados para cumprir os seguintes requisitos da Lei de Inteligência Artificial:
1. registrar-se na base de dados centralizada da União Europeia.
2. ter um sistema de gestão de qualidade compatível em vigor.
3. manter documentação e registros adequados.
4. passar por avaliações de compliance relevantes.
5. cumprir as restrições ao uso de inteligência artificial de alto risco.
6. continuar a garantir o compliance regulatório e estar preparado para demonstrar tal compliance mediante solicitação.
Conforme a CNBC confirmou em seu excelente artigo jornalístico sobre a regulação da IA, os governos temem a possibilidade de deepfakes, ou seja, formas de IA que geram eventos falsos, incluindo fotos e vídeos, sendo implementadas em eleições globais a cargos políticos importantes este ano.
Criação da Governança de Inteligência Artificial
Recentemente, foi criado o Gabinete de Inteligência Artificial da União Europeia, que desempenhará um papel fundamental na implementação da Lei da Inteligência Artificial, apoiando os órgãos de governança dos Estados-membros nas suas tarefas e aplicando as regras para modelos de IA de uso geral. Essas prerrogativas são suportadas pelos poderes conferidos pela Lei da Inteligência Artificial, incluindo a capacidade de realizar avaliações de modelos de IA de uso geral, solicitar informações e medidas aos fornecedores de modelos e aplicar sanções. O Gabinete também promoverá um ecossistema inovador de IA confiável, para colher os benefícios sociais e econômicos, garantindo uma abordagem europeia estratégica, coerente e eficaz em matéria de IA a nível internacional, tornando-se um ponto de referência mundial.
O Gabinete também terá o apoio de um painel científico de peritos independentes que apoiarão as atividades de fiscalização.
Foi igualmente criado um Conselho de Inteligência Artificial, com representantes dos Estados-membros para aconselhar e ajudar a Comissão Europeia e os Estados-membros na aplicação consistente e eficaz da Lei da Inteligência Artificial.
Por fim, foi estabelecido um fórum consultivo para as partes interessadas, incluindo indivíduos e pessoas jurídicas, fornecerem conhecimentos técnicos ao Conselho de Inteligência Artificial e à Comissão Europeia.
Penalidades por Violação da Lei da Inteligência Artificial
As multas por infrações à Lei da Inteligência Artificial serão fixadas em até 7% do volume de negócios anual global da empresa infratora no exercício anterior ou em um montante pré-determinado de EUR 35.000.000,00, o que for maior. As pequenas e médias empresas (PME) e as start-ups estarão sujeitas a multas administrativas proporcionais ou ao montante pré-determinado, mas, ao contrário, sempre o que for menor.
Aliás, o fornecimento de informações incorretas, incompletas ou enganosas aos organismos notificados ou às autoridades nacionais competentes em resposta a um pedido está sujeito a multas administrativas de até 7.500. 000,00 EUR ou, se o infrator for uma empresa, até 1 % do valor o seu volume de negócios anual total a nível mundial relativo ao exercício financeiro anterior, consoante o que for mais elevado.
Para a dosimetria da penalidade, os seguintes parâmetros devem ser considerados:
1. A natureza, a gravidade e a duração da infração e das suas consequências, tendo em conta a finalidade do sistema de IA, bem como, se for caso disso, o número de pessoas afetadas e o nível dos danos por elas sofridos.
2. Se já foram aplicadas multas administrativas por outras autoridades de fiscalização do mercado ao mesmo operador pela mesma infração.
3. Se já foram aplicadas multas administrativas por outras autoridades ao mesmo operador por infrações a outro direito da União Europeia ou da legislação nacional, quando essas infrações resultem da mesma atividade ou omissão que constitua uma infração relevante ao presente regulamento.
4. A dimensão, o volume de negócios anual e a quota de mercado do operador que comete a infração.
5. Qualquer outro fator agravante ou atenuante aplicável às circunstâncias do caso, tais como benefícios financeiros obtidos ou perdas evitadas, direta ou indiretamente, decorrentes da infração.
6. O grau de cooperação com as autoridades nacionais competentes, a fim de remediar a infração e atenuar os possíveis efeitos adversos da infração.
7. O grau de responsabilidade do operador, tendo em conta as medidas técnicas e organizacionais por ele implementadas.
8. A forma como as autoridades nacionais competentes tomaram conhecimento da infração, nomeadamente se, e em caso afirmativo, em que medida, o operador notificou a infração.
9. O caráter intencional ou negligente da infração.
10. Qualquer ação tomada pelo operador para mitigar os danos sofridos pelas pessoas afetadas.
Share with
Related
No items found.
ABOUT US
Licks’ Blog provides regular and insightful updates on Brazil’s political and economic landscape. The posts are authored by our Government Affairs & International Relations group, which is composed of experienced professionals from different backgrounds with multiple policy perspectives.
Licks Attorneys is a top tier Brazilian law firm, speciallized in Intellectual Property and recognized for its success handling large and strategic projects in the country.
ABOUT US
Licks Attorneys Compliance’s Blog provides regular and insightful updates about Ethic and Compliance. The posts are authored by Alexandre Dalmasso, our partner. Licks Attorneys is a top tier Brazilian law firm, specialized in Intellectual Property and recognized for its success handling large and strategic projects in the country.
QUEM SOMOS
O blog Licks Attorneys Compliance fornece atualizações regulares e esclarecedoras sobre Ética e Compliance. As postagens são de autoria de Alexandre Dalmasso, sócio do escritório. O Licks Attorneys é um escritório de advocacia brasileiro renomado, especializado em Propriedade Intelectual e reconhecido por seu sucesso em lidar com grandes e estratégicos cases no país.