No dia 13 de março de 2024, foi aprovado no Parlamento Europeu, o Regulamento de Inteligência Artificial (AI Act), que traz diretrizes sobre o desenvolvimento do uso de sistemas de IA.

A regulamentação da IA europeia classifica as práticas de IA em aceitáveis e inaceitáveis, com base em seu potencial de risco. Algumas práticas inaceitáveis são: (I) o uso da IA para avaliar ou classificar pessoas com base em seu comportamento social; (ii)  explorar vulnerabilidades de grupos específicos; e (iii) o uso de reconhecimento biométrico em tempo real por autoridades em espaços públicos (salvo exceções).

O AI Act classifica as práticas de inteligência artificial em quatro níveis de risco: inaceitável, alto, limitado e mínimo. O nível de risco define as obrigações e restrições impostas à prática, bem como as avaliações de impacto aos direitos fundamentais dos indivíduos que deverão ser produzidas. 

Diretrizes para Desenvolvedores de IA Generativa

Para IA generativa, como o ChatGPT ou o Gemini, os desenvolvedores devem viabilizar a indicação de que o conteúdo foi gerado por IA, projetar o modelo para evitar que gere conteúdo ilegal e informar a publicação de eventuais dados protegidos por direitos autorais.

A fim de não desincentivar a inovação, há previsão de um sandbox regulatório para startups, porém este ponto tem sido debatido em outros países, principalmente naqueles em que há uma expectativa de impulsionamento do mercado de IA.

Equilíbrio entre Tutela de Direitos e Inovação

O AI Act e o Marco Legal da IA no Brasil (Projeto de Lei nº 2.338/23) possuem similaridades. Ambos definem a IA de forma abrangente, incluindo sistemas autônomos e aqueles que dependem de interação humana. Também exigem o respeito à proteção de dados e às leis de privacidade em vigor, com diferentes níveis de cuidado para cada categoria de risco da IA (o PL 2.338/23 classifica em riscos inaceitáveis, altos riscos e demais riscos).

Assim como o AI Act, o PL 2.338/23 busca equilibrar a tutela de direitos fundamentais e o fomento à inovação, o que tem-se apresentado como maior desafio para os reguladores ao redor do mundo.

Tendências Regulatórias Globais

A Índia, por exemplo, é um país que está engajado em desenvolver seu ambiente regulatório sobre IA e tem adotado uma postura inclinada a aderir parcialmente a algumas diretrizes europeias, em favor de acessar o mercado europeu, mas sinaliza maiores flexibilidades, a fim de incentivar o desenvolvimento tecnológico local.

APRA: Projeto de Lei de Proteção de Dados nos EUA

Por sua vez, o recém disponibilizado APRA (American Privacy Rights Act), projeto de lei estadunidense que visa estabelecer diretrizes, a nível nacional, sobre a proteção de dados pessoais, em suas disposições, abrange também a utilização de algoritmos de inteligência artificial que processam dados pessoais.

Nele, existem também proibições, como no caso de coleta, processamento, retenção ou transferência de dados pessoais relacionados a raça, cor, religiâo, nacionalidade, sexo ou incapacidade, por algortimos de IA, de forma discriminatória.

As exceções previstas abarcam o caso de uso dos próprios dados para realização de testes voltados à prevenção de resultados discriminatórios ou o oferecimento de oportunidades econômicas ou benefícios para populações subrepresentadas.

Por sua vez, o APRA exige avaliações de impacto para algoritmos quando apresentam um risco relacionado a menores de idade ou à habitação, educação, emprego, saúde, seguros ou oportunidades de crédito, o que vemos como uma medida de segurança voltada a riscos que podem ser considerados como relevantes.

Efeito Bruxelas e Desafios Futuros

Fato é que, havendo ou não o efeito bruxelas (situação em que um regulamento europeu inspira substancialmente legislações ao redor do mundo, servindo de modelo a ser seguido), o AI Act tem sido observado por pesquisadores e legisladores, a fim de que se possa identificar os principais pontos de debates e sejam propostas soluções alternativas às questões controvertidas. Quanto ao melhor modelo regulatório, a experiência é quem dirá.