Este artigo apresenta um breve resumo da contribuição destes autores à consulta pública sobre o Marco Regulatório da Inteligência Artificial promovido pela Comissão de Juristas do Senado Federal, que trata de alguns dos principais pontos a serem observados pelo legislador ao elaborar a proposta de regulação deste grupo de tecnologias emergentes.

Inicialmente, entendemos válida a premissa de que não existe um vácuo legislativo, mas sim um campo promissor que pode ser aperfeiçoado e melhor definido em alguns aspectos, tendo em vista as normas em vigor no país; especialmente a Lei Geral de Proteção de Dados (LGPD), o Marco Civil da Internet (MCI), o Código Civil (CC) e o Código de Defesa do Consumidor (CDC).

A regulamentação da Inteligência Artificial no Brasil poderia ser realizada através de dois formatos principais: um primeiro, com regulamentações mais específicas, a exemplo do que sucedeu na União Europeia, que possui Diretivas, Recomendações e Resoluções sobre : 1) Aspectos Éticos, 2) Propriedade Intelectual, 3) Responsabilidade Civil, 4) Direito Penal, 5) Educação, Cultura e Audiovisual, 6) Regras harmonizadas comuns em matéria da IA; 7) Direito Civil e Robótica.

O segundo, através de microssistema normativo de base principiológica, com abordagem de aspectos civis, penais e administrativos, trata de diversos setores e mercados centrados principalmente num documento, a exemplo do que ocorre no Brasil com o Código de Defesa do Consumidor (Lei 8.078/90), que opera como disciplina jurídica matriz aplicável às relações entre consumidores e fornecedores.

Por isso, entendemos recomendável: 1) uma definição clara da forma de regulação, que seja semelhante ao modelo da União Europeia, com documentos mais específicos, seja por um microssistema normativo com base principiológica, a exemplo do o Código de Defesa do Consumidor; 2) definição sobre a criação de nova Agência Reguladora, com poder de polícia e de criação de normas infralegais ou aproveitamento das estruturas administrativas e regulações já existentes (ANPD, ANS, Anatel, entre outras); 3) estabelecimento de regras mais claras sobre qual seria o espaço destinado à autorregulamentação privada 4) aproveitamento das conquistas sociais trazidos pelo CDC, Marco Civil da Internet e LGPD na regulamentação do Marco Legal da IA; 6) definições de responsabilidades específicas de prestações de contas e transparência conforme o porte da empresa, considerando fatores como: a) volume de dados processados; b) dados sensíveis, c) intensidade dos riscos (alto, moderado e baixo).

Superando-se este ponto, destaca-se que muito se argumenta que, no seu atual estágio de evolução, algumas das aplicações da Inteligência Artificial (IA) poderiam ser incompatíveis com uma cultura ou regime de proteção de dados no Brasil estipuladas no ordenamento jurídico brasileiro (Constituição Federal, Código de Defesa do Consumidor, Lei Geral de Proteção de Dados, entre outros).

Tal incompatibilidade, no entanto, é parcialmente verdadeira. Pois o Brasil ainda está em um período de adequação e maior amadurecimento institucional.

Alguns usos da IA têm, de fato, altos riscos e desenvolvimento pulverizado. Podemos citar a disseminação de sistemas inteligentes de credit scoring e de reconhecimento facial aplicados tanto pelo poder público, quanto pela iniciativa privada. O desenvolvimento dessas tecnologias busca promover maior celeridade e conveniência na oferta de melhores produtos e prestação de serviços à população. Em contrapartida, torna os cidadãos mais dependentes, vulneráveis e expostos a vieses, (pré)conceitos, abuso de poder, potenciais violações de direitos e liberdades civis. Assim, determinados riscos seriam considerados “inaceitáveis” e, portanto, proibitivos.

 

Por tais razões, entende-se recomendável: 1) elencar hipóteses de riscos aceitáveis e inaceitáveis quanto ao uso da tecnologia, conforme a gradação do risco (baixo, moderado ou alto); 2) ampliar e aprofundar o debate público (não restrito aos setores público e privado, mas que inclua efetivamente a sociedade civil), a fim de que haja maior amadurecimento e este debate seja aplicado à realidade brasileira.

Isto porque sabe-se que atribuir valores neutros aos sistemas de IA é inviável. Ainda que fosse possível, em uma sociedade violenta e desigual, a neutralidade efetivamente perpetuaria as assimetrias sociais existentes. Assim, é necessária a criação de dispositivos capazes de mitigar os vieses discriminatórios, que ocorrem por não haver ferramentas de controle, ou por estas serem insuficientes.

Neste sentido, algumas recomendações fazem-se necessárias, como: 1) criação de dispositivos de controle que tenham por objetivo mitigar os vieses discriminatórios dos algoritmos; 2) obrigação de que as equipes de criação de algoritmos sejam plurais: multidisciplinares, multiculturais, multiétnicas, multisexuais; 3) utilização de nudges para atrair e facilitar a adesão de empresas e agentes públicos, incluindo incentivos fiscais, financiamentos e certificações aos desenvolvedores que seguirem diretrizes antidiscriminatórias; 4) usos de bancos de dados que tenham sido analisados quanto aos vieses discriminatórios em face de segmentos sociais minoritários; 5) informativos para o público dos seus direitos nas redes (principalmente em se tratando de decisões automatizadas). E, também, direcionamento para qual atitude a ser tomada em caso de violações; 6) clareza no texto quanto aos variados tipos de discriminação existentes, com o objetivo de evitar possíveis lacunas das quais os desenvolvedores possam se utilizar.

Tendo em vista o potencial de prejudicar indivíduos, o regime de responsabilidade civil a ser adotado aos desenvolvedores e aplicadores de sistemas de inteligência artificial é ponto de importância crucial em razão dos impactos de tal escolha. Sabe-se que tal percurso não é fácil de se percorrer, uma vez que os algoritmos utilizados nos sistemas de inteligência artificial podem ter baixa transparência e explicabilidade limitada, as chamadas “black boxes”.

Uma vez que os sistemas de inteligência artificial autônomos possuem duas características essenciais: 1) a relativa independência de interferências humanas para alcançar resultados e, como consequência, 2) certa imprevisibilidade dos efeitos obtidos. O regime de responsabilidade subjetiva teria entrave adicional em função da difícil comprovação pelas vítimas de culpa da entidade que desenvolve a IA (pública ou privada) ou do programador do algoritmo, sobretudo nos sistemas dotados de maior autonomia.

Por outro lado, a responsabilidade do agente, ou da instituição que o utiliza, se beneficia e aufere lucros com a exploração da IA, de acordo com a teoria do risco da atividade, prevista tanto no Artigo 927 do Código Civil quanto no Código de Defesa do Consumidor.

Assim, uma questão que a futura regulamentação poderia aprimorar seria estipular o grau de responsabilidade dos fornecedores conforme o papel na cadeia de desenvolvimento (front-end ou back-end), assim como o grau de complexidade das técnicas realizadas por cada um. Contudo, tal definição não deveria afetar os destinatários finais do serviço, apenas a avaliação de responsabilidade em eventuais ações de regresso de um fornecedor diante de outro.

Por isso, recomenda-se: 1) enfatizar que o regime vigente para IA é o de responsabilidade objetiva, tanto em face de entidades privadas quanto entidades públicas, admitindo-se excludentes por culpa exclusiva de terceiros, ausência de defeito, ausência de nexo de causalidade e incidência de caso fortuito ou força maior; 2) adotar seguro obrigatório para aplicações de alto risco; 3) evitar adoção de limite máximo para reparação civil para abrigar o princípio da indenizabilidade irrestrita.

Por fim, tratando-se de um conjunto de tecnologias disruptivas, entende-se que a prévia avaliação e medição de riscos, bem como sua constante gestão são essenciais para mitigar as probabilidades e os potenciais impactos em indivíduos eventualmente prejudicados.

Por isto, recomenda-se: 1) elaboração de avaliação de impacto que deverá seguir uma abordagem baseada no risco (risk-based approach) e obrigatória aos agentes envolvidos na cadeia de desenvolvimento e operação de sistemas de inteligência artificial; 2) adoção de boas práticas devem seguir normas propostas pela comunidade internacional, mesmo que ainda em fase de consolidação, salvo justificada inaplicabilidade, citando-se, por exemplo, o NIST Artificial Intelligence Risk Management Framework (AI RMF or Framework); 3) a partir do princípio da accountability, a documentação da metodologia adotada, bem como os registros de sua aplicação deverão ser obrigatórios e considerados no momento de eventual dosimetria de sanções.

Acima, encontram-se, então, as recomendações apresentadas por estes autores à Comissão de Juristas do Senado Federal incumbidos da missão de elaborar um substitutivo aos projetos de lei em trâmite na Casa. Sem o objetivo de esgotar o tema, apresentam-se estas provocações para que o debate acerca de um dos temas mais importantes da atualidade seja realizado com propriedade e resulte em um marco regulatório sólido, eficiente e multissetorial.


Artigo produzido com co-autoria do nosso sócio coordenador Guilherme Belmudes, para o Portal JOTA

Contribuição à consulta pública sobre o Marco da Inteligência Artificial