A União Europeia (UE) foi a primeira região do Mundo a definir regras
claras para a utilização da inteligência artificial (IA), de modo a colher os
benefícios da IA, mas arredando as suas desvantagens. Por isso, determinadas
aplicações da IA ficaram proibidas, outras foram consideradas de alto risco e há
pormenores que é preciso afinar.
Em Bruxelas, uma ronda de negociações de mais de 30 horas entre os
colegisladores da UE (Conselho e Parlamento Europeu) conseguiu, a 8 de
dezembro, a adoção dos “sinais de trânsito” para regular esta poderosa
tecnologia, ao mesmo tempo que as empresas podem
prosperar e expandir-se. A
informação foi avançada pela presidência espanhola do Conselho da UE que, numa
publicação na rede social X (antigo Twitter), indica que a estrutura que
junta os Estados-membros e os eurodeputados chegou “a um acordo provisório
sobre a lei relativa à inteligência artificial”, um regulamento que “visa garantir que os sistemas de IA
implementados e utilizados na UE são seguros e respeitam os direitos
fundamentais e os valores europeus”.
Assim, visa-se
garantir que os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade
ambiental serão protegidos contra a IA de alto risco e, ao mesmo tempo,
estimular a inovação, tornando a Europa um líder neste domínio. As regras,
que são abrangentes, estipulam obrigações para a IA, com base nos riscos
potenciais e no nível de impacto.
Também a Comissão Europeia, que propôs o regulamento,
se congratulou no X com esta “luz
verde” provisória, nomeadamente o comissário europeu do Mercado Interno,
Thierry Breton, que falou em momento “histórico”, já que, com este aval, a UE se
torna “no primeiro continente a definir regras claras para a utilização da IA”.
Entretanto, também no X, a líder do
executivo comunitário, Ursula von der Leyen, salientou que esta lei “é uma novidade
a nível mundial”, que introduz um “quadro jurídico único”, enquanto a
presidente do Parlamento Europeu (PE), Roberta Metsola, falou em “momento histórico
para a Europa digital”.
Os Estados-membros e o PE estavam, desde junho, a negociar
as primeiras regras comunitárias para que as tecnologias que desenvolvem a IA e
recorrem a ela sejam seguras e respeitem os direitos fundamentais. Isto, depois
de a Comissão Europeia ter apresentado, em 2021, a proposta para salvaguardar
os valores e direitos fundamentais da UE e a segurança dos utilizadores,
obrigando os sistemas de alto risco a cumprir requisitos obrigatórios conexos
com a sua fiabilidade. Esta será, agora, a primeira regulação direcionada para uma
IA confiável, apesar de os criadores e os responsáveis pelo desenvolvimento
desta tecnologia já estarem sujeitos à legislação europeia em matéria de
direitos fundamentais, de proteção dos consumidores e de regras de segurança. Está
prevista a introdução de requisitos adicionais para colmatar os riscos, como a
existência de supervisão humana ou a obrigação de informação clara sobre as
capacidades e as limitações da inteligência artificial, que vem sendo cada vez
mais usada em áreas como o entretenimento (personalização dos conteúdos), o
comércio online (previsão dos gostos
dos consumidores), os eletrodomésticos (programação inteligente) e os
equipamentos eletrónicos (recurso aos assistentes virtuais como a Siri ou a
Alexa, entre outros).
A Comissão Europeia tem tentado reforçar a cooperação
entre os Estados-membros relativamente à IA, mas não existia um enquadramento
legal comum, pelo que o objetivo é passar de uma abordagem voluntária para a
esfera regulatória.
***
A “Lei da Inteligência Artificial” (LIA) (em Inglês, “Artificial Intelligence
Act”) “é uma novidade a nível mundial”, no dizer da presidente da Comissão
Europeia, porque mais nenhum continente definiu, até agora, regras claras para
a utilização desta tecnologia. É ainda um acordo provisório, mas a regulação permitirá
tornar a IA “mais fiável”, garantindo que os sistemas, implementados e
utilizados nos 27 Estados-membros, “são seguros e respeitam os direitos
fundamentais e os valores europeus”, como a segurança, a privacidade, a
transparência, enfim, a democracia.
Como explica Paulo Dimas, diretor-executivo do Centro para a Inteligência
Artificial Responsável, trata-se de “tecnologia muito poderosa” que comporta
“determinados riscos”, pelo que “é importante que tenha sinais de trânsito e
que existam regras para ser usada, tal como quando estamos a conduzir um carro”.
Após intensas e longas negociações, os colegisladores da UE acordaram em
proibir determinadas aplicações da IA, devido à sua potencial ameaça aos
direitos dos cidadãos e à democracia. Desde logo, são proibidos os sistemas de
categorização biométrica que utilizem caraterísticas sensíveis, por exemplo,
“convicções políticas, religiosas, filosóficas, orientação sexual ou
raça”, como especifica o PE, em comunicado de 9 de dezembro. Exceção:
estes sistemas de vigilância biométrica podem ser utilizados para identificar
vítimas e em “crimes graves, como o terrorismo”, indicou a eurodeputada Maria
Manuel Leitão Marques, que participou nas negociações.
Também não é permitida a recolha não direcionada de imagens faciais da Internet ou de imagens de CCTV (câmaras
de vigilância) para criar bases de dados de reconhecimento facial, nem o
reconhecimento de emoções em locais de trabalho, escolas e outras instituições
de ensino, que poderiam ser usadas para avaliar se as pessoas estão atentas ou
empenhadas no que estão a fazer.
Há mais três aplicações de IA proibidas: classificação social com base no comportamento
social ou nas caraterísticas pessoais; sistemas de IA que manipulam o
comportamento humano para contornar o seu livre arbítrio; e IA utilizada para
explorar as vulnerabilidades das pessoas, devido à idade, à deficiência, à
situação social ou económica.
A eurodeputada Maria Manuel Leitão Marques (ex-ministra da Presidência e da
Modernização Administrativa no primeiro governo de António Costa), já
mencionada, sustenta que, apesar de o texto não ser definitivo, “o essencial
ficou negociado” e “a fotografia foi feita”. E classifica de “muito importante”
o momento em que a UE se torna “a primeira região do Mundo a ter uma legislação
de largo espectro sobre IA”. O ponto mais “crítico e difícil” das conversações,
segundo a eurodeputada, foi “definir o que seria proibido e o que seria
considerado alto risco”. Por exemplo, as aplicações que selecionam pessoas para
emprego, para seguro ou para crédito são aplicações que têm a ver com a vida
diária dos cidadãos e que estão sujeitas a mais obrigações do que aquelas de
risco limitado.
Houve outro ponto de discussão, segundo Paulo Dimas. As regras para regular
o uso de IA estavam a causar “limitações no desenvolvimento daquilo que se
chamam modelos abertos de desenvolvimento de software”, como o ChatGPT, pondo
assim um travão à inovação das empresas mais pequenas. Enquanto os Estados
Unidos da América (EUA) têm uma abordagem mais liberal, a Europa não estava a
ter tanto em conta algumas preocupações de startups
e “era importante que a regulação não limitasse muito o desenvolvimento e a
inovação realizada pelas empresas mais pequenas”, sustenta o especialista,
acrescentando que este feedback terá
sido ouvido pelos reguladores. Contudo, ainda há pormenores a ajustar.
Agora, o texto acordado terá de ser formalmente adotado pelo PE e pelo
Conselho Europeu para se tornar legislação da UE. As comissões do Mercado
Interno e das Liberdades Cívicas do Parlamento Europeu vão votar o acordo na
próxima reunião, cuja data ainda não foi definida. Em todo o caso, só daqui a
dois anos é que a legislação vai entrar totalmente em vigor, adianta Maria
Manuel Leitão Marques, ressalvando que pode haver prazos antecipados para a
implementação das proibições e dos sistemas de alto risco. Isto significa que
há alíneas que podem entrar em vigor mais cedo, mas a lei, como um todo, entrará
em vigor “apenas daqui a dois anos”.
***
Em
síntese, a legislação sobre a IA estabelece: salvaguardas para inteligência artificial de uso geral; limitação do uso pelas autoridades policiais de
sistemas de identificação biométrica; proibições de pontuação social e IA, usadas para
manipular ou explorar vulnerabilidades de usuários; direito dos consumidores de
apresentar reclamações e de receber explicações significativas; e coimas que variam entre 35 milhões de euros ou 7% do
volume de negócios global e 7,5 milhões ou 1,5% do volume de negócios.
Reconhecendo a potencial ameaça aos direitos dos
cidadãos e à democracia que certas aplicações da IA representam, os
colegisladores proíbem: sistemas de categorização biométrica que usam caraterísticas
sensíveis (como crenças políticas, religiosas, filosóficas, orientação sexual,
raça); extração não direcionada de imagens faciais da Internet ou imagens de CCTV para criar
bancos de dados de reconhecimento facial; reconhecimento de emoções no
local de trabalho e nas instituições de ensino; pontuação
social baseada no comportamento social ou caraterísticas pessoais; sistemas de IA que manipulam o comportamento humano para contornar
o seu livre arbítrio; e IA utilizada para explorar as
vulnerabilidades das pessoas (devido à idade, à deficiência, à situação social
ou económica).
Foi estipulada uma série de salvaguardas e exceções
restritas para a utilização de sistemas de identificação biométrica (RBI), em
espaços acessíveis ao público, para fins de aplicação da lei, sujeitos a
autorização judicial prévia e para listas de crimes estritamente definidas. O
RBI “pós-remoto” será usado apenas na busca direcionada de pessoa condenada ou
suspeita de ter cometido crime grave. O RBI em tempo real cumprirá condições estritas e a sua utilização
será limitada, no tempo e no local, para busca direcionada de vítimas
(sequestro, tráfico, exploração sexual), de prevenção de ameaça terrorista
específica e atual, ou localização ou identificação de
pessoa suspeita de ter cometido um dos crimes tipificados no regulamento (por
exemplo, terrorismo, tráfico, exploração sexual, homicídio, rapto, violação,
assalto à mão armada, participação numa organização criminosa, crime
ambiental).
Para os
sistemas de IA classificados de alto risco (devido aos potenciais danos
significativos para a saúde, a segurança, os direitos fundamentais, o ambiente,
a democracia e o Estado de direito), foram acordadas obrigações claras. Incluiu-se,
entre outros requisitos, uma avaliação obrigatória do impacto nos direitos
fundamentais, aplicável também aos setores bancário e segurador. Os
sistemas de IA usados para influenciar o resultado das eleições e o comportamento
dos eleitores também são classificados como de alto risco. Os cidadãos
terão o direito de reclamar sobre sistemas de IA e de receber explicações sobre
decisões baseadas em sistemas de IA de alto risco que afetem os seus direitos.
O incumprimento pode originar multas que variam entre 35 milhões de euros ou 7% do volume de negócios global e 7,5 milhões ou 1,5% do volume de negócios.
***
Conseguirá a LIA combater a despersonalização, a automação
indevida, a invasão da privacidade?
2023.12.09 – Louro de Carvalho
Sem comentários:
Enviar um comentário