Existe um notório e incontornável avanço tecnológico em matéria de inteligência artificial, apesar do constante desenvolvimento que ainda se verifica.
A IA para além de apresentar uma forma de resolução de muitos dos desafios que as sociedades de hoje em dia enfrentam, acarreta em si também riscos relacionados não só com a segurança e privacidade, mas também com dilemas éticos em contextos de tomada de decisão.
Deste modo, o Regulamento de Inteligência Artificial Europeu pretende garantir um avanço tecnológico no qual cada utilizador direto ou indireto pode confiar.
O Regulamento (UE) 2024/1689, de 13 de junho, estabelece, assim:
-
Regras harmonizadas para a colocação no mercado, a colocação em serviço e a utilização de sistemas de IA na União;
-
Proibições de certas práticas de IA;
-
Requisitos específicos para sistemas de IA de risco elevado e obrigações para os operadores desses sistemas;
-
Regras de transparência harmonizadas para determinados sistemas de IA;
-
Regras harmonizadas para a colocação no mercado de modelos de IA de finalidade geral;
-
Regras relativas ao acompanhamento do mercado, à fiscalização do mercado, à governação e à aplicação da lei;
-
Medidas de apoio à inovação, com especial ênfase nas PME, incluindo as empresas em fase de arranque.
Antes de mais, entende-se como “Sistema de IA” um qualquer sistema baseado em máquinas concebido para funcionar com níveis de autonomia variáveis, e que pode apresentar capacidade de adaptação após a implantação e que, para objetivos explícitos ou implícitos, e com base nos dados de entrada que recebe, infere a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.
No que concerne às proibições de certas práticas de IA entramos num campo de minas, repleto de subjetivismos e conceitos indeterminados que ainda farão correr muita tinta.
Foquemo-nos, a título de exemplo, na utilização de Sistemas de IA de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público para efeitos de aplicação da lei, prática vedada pelo Diploma que aqui se analisa, à exceção dos casos em que se tenha em vista a:
-
busca seletiva de vítimas específicas de rapto, tráfico de seres humanos ou exploração sexual de seres humanos, bem como a busca por pessoas desaparecidas;
-
prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de uma ameaça real e atual ou real e previsível de um ataque terrorista;
-
localização ou identificação de uma pessoa suspeita de ter cometido uma infração penal, para efeitos da realização de uma investigação criminal, ou instauração de ação penal ou execução de uma sanção penal por alguma das infrações referidas no anexo II e puníveis no Estado-Membro em causa com pena ou medida de segurança privativa de liberdade de duração máxima não inferior a quatro anos;
se a utilização em causa for estritamente necessária.
Nesta matéria, concretiza-se, ainda, que utilização de Sistemas de IA para os fins elencados nas alíneas a) a c), descritas no parágrafo precedente, deve ter como exclusiva finalidade confirmar a identidade da pessoa especificamente visada e deve pesar, por um lado, a gravidade, a probabilidade e a magnitude dos danos causados na ausência da utilização do sistema e, por outro lado, as consequências da utilização do sistema para os direitos e as liberdades de todas as pessoas afetadas.
A utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público está sujeita a autorização prévia concedida por uma autoridade judiciária, ou uma autoridade administrativa independente cuja decisão seja vinculativa, do Estado-Membro no qual a utilização terá lugar, sem prejuízo de situações de urgência, nas quais o pedido de utilização terá de ser solicitado no prazo máximo de 24 horas e, sendo rejeitado, obrigará à suspensão imediata da utilização e à eliminação dos seus resultados.
Acresce que, o Regulamento de Inteligência Artificial define quatro níveis de risco para os Sistemas de IA:
-
Risco Inaceitável, sendo que todos os Sistemas de IA que sejam considerados uma ameaça à segurança, aos meios de subsistência e aos direitos das pessoas são proibidos;
-
Risco Elevado, sendo de realçar que todos os Sistemas de IA de risco elevado devem ser sujeitos a uma avaliação de conformidade e permitir uma eficaz supervisão por pessoas singulares durante o período em que estão em utilização;
-
Risco de Transparência, o qual se prende essencialmente com necessidade de informar os utilizadores diretos ou indiretos de que se está a interagir com um mecanismo de IA ou de identificar claramente que se está perante um conteúdo gerado por IA;
-
Risco Mínimo ou Nulo, o qual não representa qualquer inconveniente ou apresenta inconvenientes mínimos e, portanto, não são para já introduzidas regras para os sistemas que se insiram nesta categoria.
Sem prejuízo de estarmos perante vastas normas de regulação, importa salientar que cada Estado-Membro deve designar ou criar pelo menos uma autoridade notificadora responsável por estabelecer e executar os procedimentos necessários para a avaliação, a designação e a notificação de organismos de avaliação da conformidade e por fiscalizar esses organismos, assim como podem decidir que a avaliação e a fiscalização sejam efetuadas em si por um organismo nacional de acreditação.
Caberá, ainda, aos Estados-Membros a determinação do regime de sanções e outras medidas de execução, que podem também incluir advertências e medidas não pecuniárias, estabelecendo-se à partida que as coimas a aplicar poderão ir até ao 35.000.000,00€ ou mais, dependendo do volume de negócio anual a nível mundial da empresa em causa.

