sábado, 9 de dezembro de 2023

A UE já chegou a acordo na legislação sobre a inteligência artificial

 

A União Europeia (UE) foi a primeira região do Mundo a definir regras claras para a utilização da inteligência artificial (IA), de modo a colher os benefícios da IA, mas arredando as suas desvantagens. Por isso, determinadas aplicações da IA ficaram proibidas, outras foram consideradas de alto risco e há pormenores que é preciso afinar.

Em Bruxelas, uma ronda de negociações de mais de 30 horas entre os colegisladores da UE (Conselho e Parlamento Europeu) conseguiu, a 8 de dezembro, a adoção dos “sinais de trânsito” para regular esta poderosa tecnologia, ao mesmo tempo que as empresas podem prosperar e expandir-se. A informação foi avançada pela presidência espanhola do Conselho da UE que, numa publicação na rede social X (antigo Twitter), indica que a estrutura que junta os Estados-membros e os eurodeputados chegou “a um acordo provisório sobre a lei relativa à inteligência artificial”, um regulamento que “visa garantir que os sistemas de IA implementados e utilizados na UE são seguros e respeitam os direitos fundamentais e os valores europeus”.

Assim, visa-se garantir que os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade ambiental serão protegidos contra a IA de alto risco e, ao mesmo tempo, estimular a inovação, tornando a Europa um líder neste domínio. As regras, que são abrangentes, estipulam obrigações para a IA, com base nos riscos potenciais e no nível de impacto.

Também a Comissão Europeia, que propôs o regulamento, se congratulou no X com esta “luz verde” provisória, nomeadamente o comissário europeu do Mercado Interno, Thierry Breton, que falou em momento “histórico”, já que, com este aval, a UE se torna “no primeiro continente a definir regras claras para a utilização da IA”. Entretanto, também no X, a líder do executivo comunitário, Ursula von der Leyen, salientou que esta lei “é uma novidade a nível mundial”, que introduz um “quadro jurídico único”, enquanto a presidente do Parlamento Europeu (PE), Roberta Metsola, falou em “momento histórico para a Europa digital”.

Os Estados-membros e o PE estavam, desde junho, a negociar as primeiras regras comunitárias para que as tecnologias que desenvolvem a IA e recorrem a ela sejam seguras e respeitem os direitos fundamentais. Isto, depois de a Comissão Europeia ter apresentado, em 2021, a proposta para salvaguardar os valores e direitos fundamentais da UE e a segurança dos utilizadores, obrigando os sistemas de alto risco a cumprir requisitos obrigatórios conexos com a sua fiabilidade. Esta será, agora, a primeira regulação direcionada para uma IA confiável, apesar de os criadores e os responsáveis pelo desenvolvimento desta tecnologia já estarem sujeitos à legislação europeia em matéria de direitos fundamentais, de proteção dos consumidores e de regras de segurança. Está prevista a introdução de requisitos adicionais para colmatar os riscos, como a existência de supervisão humana ou a obrigação de informação clara sobre as capacidades e as limitações da inteligência artificial, que vem sendo cada vez mais usada em áreas como o entretenimento (personalização dos conteúdos), o comércio online (previsão dos gostos dos consumidores), os eletrodomésticos (programação inteligente) e os equipamentos eletrónicos (recurso aos assistentes virtuais como a Siri ou a Alexa, entre outros).

A Comissão Europeia tem tentado reforçar a cooperação entre os Estados-membros relativamente à IA, mas não existia um enquadramento legal comum, pelo que o objetivo é passar de uma abordagem voluntária para a esfera regulatória.

***

A “Lei da Inteligência Artificial” (LIA) (em Inglês, “Artificial Intelligence Act”) “é uma novidade a nível mundial”, no dizer da presidente da Comissão Europeia, porque mais nenhum continente definiu, até agora, regras claras para a utilização desta tecnologia. É ainda um acordo provisório, mas a regulação permitirá tornar a IA “mais fiável”, garantindo que os sistemas, implementados e utilizados nos 27 Estados-membros, “são seguros e respeitam os direitos fundamentais e os valores europeus”, como a segurança, a privacidade, a transparência, enfim, a democracia.

Como explica Paulo Dimas, diretor-executivo do Centro para a Inteligência Artificial Responsável, trata-se de “tecnologia muito poderosa” que comporta “determinados riscos”, pelo que “é importante que tenha sinais de trânsito e que existam regras para ser usada, tal como quando estamos a conduzir um carro”.

Após intensas e longas negociações, os colegisladores da UE acordaram em proibir determinadas aplicações da IA, devido à sua potencial ameaça aos direitos dos cidadãos e à democracia. Desde logo, são proibidos os sistemas de categorização biométrica que utilizem caraterísticas sensíveis, por exemplo, “convicções políticas, religiosas, filosóficas, orientação sexual ou raça”, como especifica o PE, em comunicado de 9 de dezembro. Exceção: estes sistemas de vigilância biométrica podem ser utilizados para identificar vítimas e em “crimes graves, como o terrorismo”, indicou a eurodeputada Maria Manuel Leitão Marques, que participou nas negociações.

Também não é permitida a recolha não direcionada de imagens faciais da Internet ou de imagens de CCTV (câmaras de vigilância) para criar bases de dados de reconhecimento facial, nem o reconhecimento de emoções em locais de trabalho, escolas e outras instituições de ensino, que poderiam ser usadas para avaliar se as pessoas estão atentas ou empenhadas no que estão a fazer.

Há mais três aplicações de IA proibidas: classificação social com base no comportamento social ou nas caraterísticas pessoais; sistemas de IA que manipulam o comportamento humano para contornar o seu livre arbítrio; e IA utilizada para explorar as vulnerabilidades das pessoas, devido à idade, à deficiência, à situação social ou económica.

A eurodeputada Maria Manuel Leitão Marques (ex-ministra da Presidência e da Modernização Administrativa no primeiro governo de António Costa), já mencionada, sustenta que, apesar de o texto não ser definitivo, “o essencial ficou negociado” e “a fotografia foi feita”. E classifica de “muito importante” o momento em que a UE se torna “a primeira região do Mundo a ter uma legislação de largo espectro sobre IA”. O ponto mais “crítico e difícil” das conversações, segundo a eurodeputada, foi “definir o que seria proibido e o que seria considerado alto risco”. Por exemplo, as aplicações que selecionam pessoas para emprego, para seguro ou para crédito são aplicações que têm a ver com a vida diária dos cidadãos e que estão sujeitas a mais obrigações do que aquelas de risco limitado.

Houve outro ponto de discussão, segundo Paulo Dimas. As regras para regular o uso de IA estavam a causar “limitações no desenvolvimento daquilo que se chamam modelos abertos de desenvolvimento de software”, como o ChatGPT, pondo assim um travão à inovação das empresas mais pequenas. Enquanto os Estados Unidos da América (EUA) têm uma abordagem mais liberal, a Europa não estava a ter tanto em conta algumas preocupações de startups e “era importante que a regulação não limitasse muito o desenvolvimento e a inovação realizada pelas empresas mais pequenas”, sustenta o especialista, acrescentando que este feedback terá sido ouvido pelos reguladores. Contudo, ainda há pormenores a ajustar.

Agora, o texto acordado terá de ser formalmente adotado pelo PE e pelo Conselho Europeu para se tornar legislação da UE. As comissões do Mercado Interno e das Liberdades Cívicas do Parlamento Europeu vão votar o acordo na próxima reunião, cuja data ainda não foi definida. Em todo o caso, só daqui a dois anos é que a legislação vai entrar totalmente em vigor, adianta Maria Manuel Leitão Marques, ressalvando que pode haver prazos antecipados para a implementação das proibições e dos sistemas de alto risco. Isto significa que há alíneas que podem entrar em vigor mais cedo, mas a lei, como um todo, entrará em vigor “apenas daqui a dois anos”.

***

Em síntese, a legislação sobre a IA estabelece: salvaguardas para inteligência artificial de uso geral; limitação do uso pelas autoridades policiais de sistemas de identificação biométrica; proibições de pontuação social e IA, usadas para manipular ou explorar vulnerabilidades de usuários; direito dos consumidores de apresentar reclamações e de receber explicações significativas; e coimas que variam entre 35 milhões de euros ou 7% do volume de negócios global e 7,5 milhões ou 1,5% do volume de negócios.

Reconhecendo a potencial ameaça aos direitos dos cidadãos e à democracia que certas aplicações da IA ​​representam, os colegisladores proíbem: sistemas de categorização biométrica que usam caraterísticas sensíveis (como crenças políticas, religiosas, filosóficas, orientação sexual, raça); extração não direcionada de imagens faciais da Internet ou imagens de CCTV para criar bancos de dados de reconhecimento facial; reconhecimento de emoções no local de trabalho e nas instituições de ensino; pontuação social baseada no comportamento social ou caraterísticas pessoais; sistemas de IA que manipulam o comportamento humano para contornar o seu livre arbítrio; e IA utilizada para explorar as vulnerabilidades das pessoas (devido à idade, à deficiência, à situação social ou económica).

Foi estipulada uma série de salvaguardas e exceções restritas para a utilização de sistemas de identificação biométrica (RBI), em espaços acessíveis ao público, para fins de aplicação da lei, sujeitos a autorização judicial prévia e para listas de crimes estritamente definidas. O RBI “pós-remoto” será usado apenas na busca direcionada de pessoa condenada ou suspeita de ter cometido crime grave. O RBI em tempo real cumprirá condições estritas e a sua utilização será limitada, no tempo e no local, para busca direcionada de vítimas (sequestro, tráfico, exploração sexual), de prevenção de ameaça terrorista específica e atual, ou localização ou identificação de pessoa suspeita de ter cometido um dos crimes tipificados no regulamento (por exemplo, terrorismo, tráfico, exploração sexual, homicídio, rapto, violação, assalto à mão armada, participação numa organização criminosa, crime ambiental).

Para os sistemas de IA classificados de alto risco (devido aos potenciais danos significativos para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito), foram acordadas obrigações claras.  Incluiu-se, entre outros requisitos, uma avaliação obrigatória do impacto nos direitos fundamentais, aplicável também aos setores bancário e segurador. Os sistemas de IA usados para influenciar o resultado das eleições e o comportamento dos eleitores também são classificados como de alto risco. Os cidadãos terão o direito de reclamar sobre sistemas de IA e de receber explicações sobre decisões baseadas em sistemas de IA de alto risco que afetem os seus direitos.

Para ter em conta a vasta gama de tarefas que os sistemas de IA podem realizar e a rápida expansão das suas capacidades, foi acordado que os sistemas de IA de uso geral (GPAI) e os modelos GPAI em que se baseiam, terão de aderir aos requisitos de transparência, como inicialmente proposto pelo PE, que incluem a elaboração de documentação técnica, o cumprimento da legislação da UE em matéria de direitos de autor e a divulgação de resumos detalhados sobre o conteúdo utilizado na formação. Aos modelos GPAI de alto impacto com risco sistémico, os negociadores garantem obrigações mais rigorosas. Se cumprirem determinados critérios, terão de avaliar modelos, avaliar e atenuar riscos sistémicos, realizar testes contraditórios, comunicar à Comissão sobre incidentes graves, garantir a cibersegurança e comunicar sobre eficiência energética. E, até à publicação de normas harmonizadas da UE, os GPAI com risco sistémico podem basear-se em códigos de prática para cumprir o regulamento. E as empresas, sobretudo as pequenas e médias empresas (PME), devem desenvolver soluções de IA, sem pressão indevida dos gigantes da indústria que controlam a cadeia de valor. Para tanto, o acordo promove as seguranças computacionais (sandboxes) regulamentares e testes no mundo real, estabelecidos pelas autoridades nacionais para desenvolver e treinar IA inovadora antes da colocação no mercado.
O incumprimento pode originar multas que variam entre 35 milhões de euros ou 7% do volume de negócios global e 7,5 milhões ou 1,5% do volume de negócios.

***

Conseguirá a LIA combater a despersonalização, a automação indevida, a invasão da privacidade?

2023.12.09 – Louro de Carvalho

Sem comentários:

Enviar um comentário