A 7 de fevereiro, António Guterres, secretário-geral da Organização
das Nações Unidas (ONU), defendeu, uma abordagem global à inteligência
artificial (IA), que “afetará toda a Humanidade” e “está já a criar
riscos”, em torno da desinformação e da privacidade.
Na apresentação à Assembleia-Geral ONU das prioridades para
2024, Guterres sustentou que, dos cuidados de saúde à educação e da ação
climática aos sistemas alimentares, a IA generativa é a “ferramenta potencial
mais importante para construir economias e sociedades inclusivas, verdes e
sustentáveis”. Todavia, observou que, além dos seus efeitos e riscos, está
concentrada em poucas empresas e em menos países, gerando desigualdades. Ora, como defende, “a tecnologia deve
reduzir as desigualdades e não reproduzi-las ou colocar as pessoas umas contra
as outras”; e, porque a IA afetará toda a Humanidade, é necessária “uma
abordagem universal”.
A ONU lançou, em 2023, um órgão consultivo sobre IA,
para reunir governos, empresas privadas, universidades e sociedade civil em
torno dum alinhamento mais estreito entre as normas internacionais e a forma
como a tecnologia é desenvolvida e implementada. Esse órgão publicará o seu
relatório final no próximo verão, e as suas recomendações contribuirão para o
Pacto Digital Global proposto para adoção na Cimeira do Futuro, em setembro
deste ano.
No mesmo discurso, o líder da ONU advogou que a IA “não deve substituir a iniciativa
humana”, pois, como “foi criada por humanos”, deve estar “sempre sob controlo
humano”. E vincou: “Devemos agir rapidamente, ser criativos e trabalhar em
conjunto para garantir barreiras de proteção e padrões éticos adequados,
promover a transparência e desenvolver capacidades nos países em
desenvolvimento.”
Guterres disse que têm aumentado, exponencialmente, na era
digital, a velocidade e o alcance da desinformação e do ódio, levando à ascensão
do antissemitismo, da intolerância antimuçulmana, da perseguição de comunidades
cristãs minoritárias e da ideologia da supremacia branca.
***
Guterres
não está sozinho no alerta para os riscos da IA. Geoffrey Hinton, um dos pioneiros da IA (trabalha com ela desde os anos
1970) – chamam-lhe o “padrinho” da inteligência artificial –, em maio de 2023,
saiu da Google (a que se juntara em 2023), para poder alertar para os riscos do
desenvolvimento de novas aplicações tecnológicas, como o ChatGPT.
Aos 75 anos,
reformou-se para “poder falar sobre os perigos da inteligência artificial sem
ter de considerar o impacto que terá na Google”, resumiu na rede social X, antigo Twitter.
O cientista
britânico, radicado, há décadas na Universidade de Toronto (Canadá), passou de
criador a crítico de uma área da tecnologia que teve, em novembro de 2022, o
seu primeiro grande impacto global, com o lançamento do ChatGPT, mas também de outras ferramentas em que se produzem vozes
ou imagens em segundos. “Veja como [a tecnologia de IA] era há cinco anos e
como é agora”, disse Hinton citado pelo The New York Times. “Pegue nessa diferença e multiplique para o
futuro. [A evolução] é assustadora.”
As críticas
à utilização da inteligência artificial e dos perigos que pode acarretar não
são novas. Já em fevereiro de 2023, Cateljine Muller defendia que estas
ferramentas ainda não eram positivas para a sociedade. “O Mundo ainda não é
capaz de lidar com todas as consequências de uma ferramenta como o ChatGPT. Ainda apresenta mais riscos do
que benefícios”, referiu ao Público a
fundadora da ALLAI, organização europeia por uma IA responsável, e que tem
aconselhado a Comissão Europeia nesta temática.
No final de março
de 2023, um grupo de especialistas e responsáveis pela indústria tecnológica –
incluindo Elon Musk, financiador inicial da Open AI (criadora do ChatGPT), e Steve Wozniak, cofundador da
Apple – pedia, em carta, aos laboratórios travão de seis meses no
desenvolvimento da IA, algo similar a várias declarações isoladas contra esta tecnologia
e contra os seus impactos na sociedade. A carta, publicada pelo “Future of Life
Institute” (Instituto do Futuro da Vida), uma organização sem fins lucrativos
apoiada por Elon Musk, veio duas semanas depois que a OpenAI anunciou o GPT-4, uma versão ainda mais poderosa da
tecnologia que alimenta o ChatGPT.
Nos primeiros testes e numa demonstração da empresa, o GPT-4 foi usado para
redigir ações judiciais, passar em exames padronizados e construir um site funcional a partir dum esboço feito
à mão.
“Estes novos
sistemas são uma ferramenta fantástica para a difamação e serão, certamente,
utilizados para isso”, afirmou o filósofo Noam Chomsky, sustentando que “a ideia de que podemos aprender alguma coisa com este
tipo de IA é um erro”.
Geoffrey
Hinton investiga, desde os anos 1970, redes neuronais artificiais – onde um
sistema matemático simula os neurónios para, por exemplo, analisar fotografias
e aprender a identificar flores ou carros sem necessitar da intervenção humana.
Nesta base, por exemplo, um modelo de IA olha para milhares de fotografias de
animais e define quais são os cavalos – porque sabe as suas caraterísticas a
partir dos exemplos que “estudou” antes. Neste campo, o investigador, formado
em psicologia cognitiva e ciências da computação, tem dado os maiores
contributos. Um dos mais conhecidos é de 2012, participando na criação duma
rede neuronal que identificava objetos comuns, como cães, carros ou flores a
partir de milhares de imagens, num trabalho com dois estudantes da Universidade
de Toronto, Alex Krishevsky (o responsável principal do trabalho) e Ilya
Sutskever.
Até há
pouco, não preocupava o volume de informação que ferramenta como o ChatGPT compreenderia. Mas Hinton afirma
que o ponto de viragem é agora. “Estamos a ver coisas como o GPT-4 a eclipsar as pessoas na
quantidade de conhecimento geral que tem e eclipsa-nos por larga margem”, disse
em declarações à BBC, anotando que
a capacidade de raciocínio e resposta são ainda limitadas. “Dado o ritmo de
evolução, podemos esperar que isto melhore rapidamente. Precisamos, pois de nos
preocupar com isso”, afirmou ao site da televisão britânica.
O risco
de desinformação, de uso indevido, para amplificar estereótipos ou
mensagens políticas, e a perda de trabalhos são alguns dos riscos elencados nas
críticas à IA. “É difícil ver como se pode impedir que maus intervenientes não
usem isto de forma maligna”, apontou Geoffrey Hinton, em entrevista ao The New
York Times, onde ecoou
as preocupações sobre o potencial da IA, para eliminar empregos e criar um
mundo onde muitos “não serão mais capazes de saber o que é verdade”. E apontou o
impressionante ritmo de avanço, muito além do que ele e outros haviam previsto.
“A ideia de que essas coisas poderiam realmente ficar mais inteligentes do que
as pessoas – algumas pessoas acreditaram nisso”. “Mas a maioria das pessoas
achou que estava errado. E eu pensei que estava longe, achando que era de 30 a
50 anos ou até mais longe. Obviamente, não penso mais nisso.”
Em sentido
contrário, a eficiência e rapidez em tarefas como a tradução ou pesquisa, o
aumento da produtividade e a interação com pessoas em serviços de atendimento a
clientes trazem vantagens económicas e no tempo livre da população. E Jeff
Dean, responsável científico da Google, respondeu, em comunicado, que a empresa
continua comprometida com uma abordagem responsável à IA. E, Em julho, a Google
demitiu um engenheiro por dizer que um sistema de IA não lançado se havia tornado
autoconsciente. Alegadamente, violou as políticas de emprego e segurança de
dados. Muitos na comunidade de IA rejeitaram a afirmação do engenheiro.
Antes de
deixar a Google, Hinton havia falado publicamente sobre o potencial da IA
tanto para o mal como para o bem. “Acredito que o rápido progresso da IA
transformará a sociedade de maneiras que não entendemos totalmente e nem
todos os efeitos serão bons”, sustentou num discurso de formação, em 2021, no
Instituto Indiano de Tecnologia em Mumbai, observando como a IA aumentará a
assistência médica e criará oportunidades para armas autónomas letais. “Acho
essa perspetiva muito mais imediata e muito mais aterrorizante do que a perspetiva
de robôs assumirem o controlo, o que acho que está muito distante.”
***
Como
foi referido, grandes nomes no setor de IA assinaram uma declaração sobre o
“risco de extinção” que a tecnologia cria para o Mundo. O alerta foi dado por
Sam Altman, CEO da OpenAI, Demis Hassabis, chefe do Google DeepMind, Geoffrey
Hinton e Yoshua Bengio, além de outros especialistas. “Mitigar o risco de
extinção da IA deve ser prioridade global”, reza a declaração, “junto a
outros riscos em escala social, como pandemias e guerra nuclear”.
O comunicado foi publicado pelo
Center for AI Safety, organização sem fins lucrativos com a missão de reduzir
os riscos em escala social da IA. Dan Hendrycks, diretor-executivo da entidade,
afirmou ao The New
York Times que a
declaração é curta – só 22 palavras em Inglês – para evitar discordâncias entre
as pessoas que assinaram.
A declaração é acompanhada de uma
explicação: quer “criar conhecimento comum do crescente número de especialistas
e de figuras públicas que também levam a sério alguns dos riscos mais graves da
IA avançada”. Com efeito, há três visões principais sobre os riscos da IA: alguns
imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna
independente e impossível de controlar; outros, mais céticos, apontam que a IA
mal consegue realizar tarefas como dirigir um carro, apesar de investimentos
bilionários no setor; e há quem aponte os riscos mais imediatos da IA, que
futuristas podem acabar por minimizar, como o seu uso indevido para deepfakes, fake news automatizadas e perda de empregos. Especialistas em IA,
jornalistas (é impossível ignorá-la e, comunicação social), formuladores de
políticas públicas e o público em geral discutem um amplo espectro de riscos
importantes e urgentes da IA. Mesmo assim, pode ser difícil expressar
preocupações sobre alguns dos riscos mais graves da IA avançada.
Para o presidente dos Estados Unidos
da América (EUA), Joe Biden, a IA pode ajudar a lidar com alguns desafios muito
difíceis, como doenças e mudança climática, mas devemos abordar os riscos
potenciais para a sociedade, para a economia e para a segurança nacional.
***
A
título de exemplo, é de ter em conta que, a 4 de fevereiro, foi noticiado que,
segundo a polícia de Hong Kong, uma empresa multinacional foi roubada em quase 26 milhões de
dólares, numa fraude
baseada na tecnologia “deepfake”, que cria vídeos com recurso a IA.
Um
empregado de uma empresa num centro financeiro chinês recebeu, por
videoconferência, chamadas de várias pessoas que se faziam passar por quadros
superiores da empresa, com sede no Reino Unido, e lhe pediam para transferir
dinheiro para determinadas contas bancárias. A polícia recebeu um relatório
sobre o incidente, a 29 de janeiro, altura em que cerca de 26 milhões de
dólares (24 milhões de euros) já tinham sido perdidos através de 15 transferências.
Os criminosos encontraram vídeos e áudios
disponíveis na rede YouTube e utilizaram a tecnologia ‘deepfake’ para
imitar as vozes, a fim de enganarem a vítima e de a fazerem seguir as suas
instruções. Os vídeos, pré-gravados, não envolviam qualquer diálogo ou
interação com a vítima.
***
Por
fim, uma boa notícia. Na sequência de acordo provisório de dezembro de 2023, a
União Europeia (UE) deu conta, a 13 de fevereiro,
de que as comissões parlamentares do Mercado Interno e das Liberdades Cívicas,
com respetivamente 71 e oito votos a favor e sete abstenções, aprovaram “o
resultado das negociações com os Estados-membros sobre a Lei da IA”
O
regulamento em causa visa proteger os direitos fundamentais, a democracia, o
Estado de direito e a sustentabilidade ambiental da IA de alto risco, bem como
impulsionar a inovação e estabelecer a Europa como líder no domínio da IA. As
regras estabelecem obrigações com base nos seus riscos potenciais e no seu
nível de impacto.
Falta, agora, a adoção formal numa próxima sessão plenária do Parlamento
Europeu e a aprovação final do Conselho, sendo a nova lei aplicável 24 meses
após a sua entrada em vigor.
***
Não
se pode desvalorizar o potencial da IA, mas deve acautelar-se o seu uso
desviante. Por isso, é bem-vinda a necessária regulamentação, bem como a desejável
extensão a todas empresas e serviços e a todos os países do Mundo.
2024.02.15 –
Louro de Carvalho
Sem comentários:
Enviar um comentário