terça-feira, 19 de dezembro de 2023

Que dizer da IA generativa, que foi objeto de prémio?

 

O estudo “Inteligência artificial [IA] generativa: levantar o véu dos direitos de autor”, levou Catarina Rodrigues Rocha a vencer a 6.ª edição do “Law and Technology Award”, promovido pelo Instituto de Conhecimento da Abreu Advogados, para incentivar o interesse dos estudantes pela relação entre Direito e Tecnologia.

Licenciada em Direito pela NOVA School of Law, com Pós-Graduação Avançada em Direito e Proteção de Dados pelo Centro de Investigação em Direito Privado (CIDP) e Mestranda em Direito, Especialização Direito Empresarial e Tecnologia (Law & Tech) na NOVA School of Law,  analisou os desafios para os direitos de autor com a implementação da IA generativa.

Nesta edição, os candidatos responderam à questão “A inteligência artificial generativa desafia os mais variados setores, entre os quais o Direito. Escolhe um dos temas em que terá impacto e propõe soluções”. “O meu trabalho focou-se na conjugação da IA generativa e os Direitos de Autor. Tentei ter em consideração as inseguranças da classe artística e que o novo IA Act compatibilizasse os direitos de autor como existem, garantindo também uma forma dos autores poderem conseguir analisar e verificar se estão a ser cumpridas as regras. Assim permitindo que existisse uma self-awareness dos seus direitos de autor”, sublinhou a vencedora, que vai receber um prémio monetário de 1.000 euros e irá realizar o estágio profissional na Abreu Advogados, a partir de setembro de 2024.

“A IA generativa representa um avanço tecnológico notável, com potencial de transformação de todos os setores. Quisemos, assim, desafiar os estudantes de direito a proporem soluções para os diversos problemas jurídicos que dela emergem. A Catarina Rocha destacou-se pela profundidade da análise e adequação das soluções propostas”, explicou Luís Barreto Xavier, consultor para a Inovação da Abreu e presidente do júri.

O Instituto de Conhecimento da Abreu Advogados vem desenvolvendo iniciativas sobre Direito e Tecnologia. Além do prémio em referência, promoveu, em 2023, pelo 5.º ano consecutivo, o “Lisbon Law & Tech”, um dos principais eventos internacionais sobre Direito e Tecnologia, com a participação de alguns dos principais especialistas mundiais nestes temas, e promoveu, com a Universidade Católica Portuguesa, um “ColloquIA”, sobre IA generativa.

***

“Inteligência artificial (IA) generativa” é expressão aplicável a qualquer tipo de processo automatizado que utiliza algoritmos para produzir, manipular ou sintetizar dados, muitas vezes em forma de imagens ou de texto legível por humanos. Como IA generativa, cria algo não existente. Diferencia-se da IA discriminatória, que distingue entre diferentes tipos de dados. Esta responde a perguntas como “Esta imagem é de um gato ou de um cão?”; aquela desempenha tarefas como desenhar a imagem de um cão e de um gato sentados juntos.

A IA generativa existe desde que foi desenvolvido no MIT, em 1966ELIZA, um chatbot (recurso robótico) que simula a conversa com um terapeuta. E anos de trabalho em IA e na aprendizagem de máquinas foram, há pouco, compensados com o lançamento de novos sistemas generativos de IA, como o ChatGPT, chatbot de IA baseado em texto que produz prosa semelhante à humana. A DALL-E e a Stable Diffusion atraíram a atenção pela capacidade de criar imagens vibrantes e realistas, a partir de mensagens de texto. Estes e outros sistemas similares são modelos, porque representam a tentativa de simular ou modelar aspetos do mundo real a partir de um subconjunto de informações sobre o mesmo.

Os resultados destes sistemas levantam questões sobre a natureza da consciência e terão impacto económico da IA generativa no emprego humano. E, apesar de estas criações de IA serem grande notícia, o que se passa por debaixo da superfície é muito menos do que se supõe.

A IA generativa utiliza a aprendizagem mecânica para processar enorme quantidade de dados visuais ou textuais, grande parte deles colhidos da Internet, e determinar as coisas que mais provavelmente aparecerão perto de outras. Grande parte do trabalho de programação na IA generativa envolve a criação de algoritmos capazes de distinguir as coisas que interessam aos criadores da IA: palavras e frases no caso de chatbots como ChatGPT, ou elementos visuais para DALL-E. A IA generativa cria resultados através da avaliação de um grande corpus de dados sobre os quais foi treinada e, depois, responde a pedidos conexos com algo que se enquadra na faixa de probabilidade determinada por esse corpus. O preenchimento automático (o telemóvel ou o gmail sugerem o possível resto da palavra ou frase a dactilografar) é uma forma de IA generativa de baixo nível. Já modelos como o ChatGPT e o DALL-E levam a níveis avançados.

O processo de desenvolvimento dos modelos para acomodar os dados é a formação, com técnicas subjacentes para diferentes tipos de modelos. O ChatGPT utiliza um transformador (daí o T), que deduz o significado de longas sequências de texto, para compreender como diferentes palavras ou componentes semânticos podem relacionar-se entre si e determinar a probabilidade de aparecerem próximos uns dos outros. Estes transformadores são executados, sem supervisão, num corpus de texto de linguagem natural num processo chamado pré-formação, antes de serem afinados por humanos que interagem com o modelo.

Outra técnica para treinar modelos é a rede de adversários generativos ou GAN, em que há dois algoritmos concorrentes: um gera texto ou imagens com base em probabilidades derivadas dum grande conjunto de dados; o outro é IA discriminatória, que os humanos treinam para avaliarem se o produto é real ou gerado pela IA. A IA generativa tenta enganar a IA discriminatória, adaptando-se para dar resultados bem-sucedidos. Como a IA generativa ganha sistematicamente esta competição, os humanos ajustam a IA discriminatória e o processo recomeça.

Embora haja intervenção humana no processo de aprendizagem, a maior parte desta aprendizagem e adaptação acontece automaticamente. São necessárias tantas iterações para os modelos produzirem resultados interessantes que a automatização é essencial. O processo é intensivo do ponto de vista computacional. A matemática e a codificação necessárias para criar e treinar modelos generativos de IA são complexas. Porém, se interagir com os modelos que são o resultado final deste processo, a experiência pode ser estranha. Pode fazer com que a DALL-E produza coisas que pareçam obras de arte ou ter conversas com ChatGPT semelhantes a conversas com outro ser humano.

Terão os investigadores criado uma máquina pensante? Chris Phipps, que trabalhou nos produtos de IA da Watson, diz que não. Descreve o ChatGPT como uma “muito boa máquina de previsão”. Prevê o que os humanos vão achar coerente. Nem sempre é coerente, mas isso não é porque o ChatGPT “compreende”; ao invés, os humanos que consomem a produção são muito bons a fazer as suposições implícitas de que precisamos para dar sentido à produção.

Phipps compara com um jogo de improvisação, o Mind Meld. Duas pessoas pensam numa palavra e dizem-na em voz alta, em simultâneo: Tu dizes “cão” e eu digo “tela”. Criámos estas palavras de forma independente, sem terem, no início, que ver uma com a outra. Os dois participantes seguintes pegam nestas palavras e tentam inventar algo que têm em comum e dizem-no em voz alta, em simultâneo. O jogo continua até dois participantes dizerem a mesma palavra. Talvez ambos digam “pintor”. Trata-se de usar o cérebro humano para raciocinar sobre o input (“cão” e “tela”) e encontrar ligação. Fazemos nós o trabalho de compreensão, não a máquina. Com ChatGPT e DALL-E, acontece muito mais do que as pessoas admitem. O ChatGPT pode escrever uma história, mas nós fazemos muito do trabalho para lhe dar sentido.

Certas instruções que damos a estes modelos de IA realçarão o argumento de Phipps. Por exemplo, a resposta à questão “o que pesa mais, um quilo de carne ou um quilo de lã”, é que pesam o mesmo, embora o nosso bom senso diga que a lã é mais leve. O ChatGPT responderá corretamente à questão, podendo assumir que o faz por ser computador lógico, que não tem “senso comum” para tropeçar. Mas não é isso que acontece. O ChatGPT não raciocina logicamente; só gera resultados com base nas previsões do que deve seguir-se a uma pergunta sobre um quilo de carne e um quilo de lã. Porque o seu conjunto de treino inclui muito texto a explicar o enigma, reúne uma versão dessa resposta correta. Mas, se se perguntar ao ChatGPT se dois quilos de lã pesam mais de um quilo de carne, dirá com confiança que pesam o mesmo, porque essa continua a ser a resposta mais provável a perguntas sobre lã e carne, com base no seu conjunto de treino. É divertido dizer à IA que errou, vê-la responder hesitante e, pedindo-lhe que peça desculpa do erro, sugerir que dois quilos de lã pesam quatro vezes mais do que um quilo de carne.

Uma peculiaridade notável da IA é retratar, frequentemente, pessoas com mãos estranhas – um indicador de que a arte foi gerada artificialmente, fornecendo uma maior perceção de como a IA generativa funciona. Assim, o corpus a partir do qual DALL-E e ferramentas semelhantes de IA generativa visual produzem imagens de pessoas com boa visão dos seus rostos, mas com mãos parcialmente obscurecidas ou mostradas em ângulos estranhos, não deixa ver todos os seus dedos ao mesmo tempo. Além disso, o facto de as mãos serem estruturalmente complexas, torna-as muito difíceis de desenhar, mesmo para os artistas mais experientes. E a DALL-E não monta um elaborado modelo 3D de mãos baseado nos vários renderings 2D do seu conjunto de treino. A DALL-E nem sabe necessariamente que “mãos” é categoria coerente para raciocinar. Tudo o que pode fazer é tentar prever, com base nas imagens que tem, como é que uma imagem semelhante pode parecer. Apesar da enorme quantidade de dados de formação, tais previsões ficam, muitas vezes, aquém das expectativas.

Phipps crê que um fator é a falta de dados negativos. A DALL-E treina, sobretudo, com base em exemplos positivos. Não lhe foi dada uma imagem de uma mão com sete dedos e dito ‘NÃO’. Assim, prevê o espaço do possível, não o espaço do impossível. Nunca lhe foi dito para não criar uma mão com sete dedos. Há também o fator de que estes modelos não pensam nos desenhos que fazem como um todo coerente, mas montam uma série de componentes próximos uns dos outros, como mostram os dados da formação. A DALL-E pode não saber que a mão deve ter cinco dedos, mas sabe que um dedo será adjacente a outro. De facto, esta descrição do processo do DALL-E está provavelmente a antropomorfizá-lo demasiado.

Estes exemplos mostram uma das principais limitações da IA generativa: o que os profissionais da indústria chamam “alucinações”, termo talvez enganador para resultados que são, pelos padrões dos seres humanos que os utilizam, falsos ou incorretos. Todos os sistemas informáticos produzem erros de vez em quando, mas estes erros são especialmente problemáticos, porque é pouco provável que sejam facilmente detetados pelos utilizadores finais: se se fizer uma pergunta a um chatbot de IA, este normalmente não saberá a resposta e é mais provável que aceite uma resposta dada na prosa confiante e totalmente idiomática que o ChatGPT e modelos semelhantes produzem, mesmo que a informação esteja incorreta.

Ainda que uma IA generativa produza resultados sem alucinações, há impactos negativos potenciais na criação de conteúdos e na propriedade intelectual.

Quanto à criação de conteúdos, é claro que o ChatGPT e outras IA generativas não são mentes reais capazes de produzir ideias criativas. Todavia, nem tudo o que é escrito ou desenhado precisa de ser criativo. Muitos trabalhos de investigação visam apenas sintetizar dados disponíveis ao público, tornando-se alvo perfeito para a IA generativa. E o facto de a prosa sintética ou arte poder ser produzida automaticamente, a uma escala sobre-humana, pode ter resultados estranhos ou imprevistos. Os criadores de SPAM já utilizam o ChatGPT para escrever e-mails de phishing.

A nível da propriedade intelectual, levantam-se questões legais espinhosas ainda não testadas: Quem possui uma imagem ou texto gerado por IA? Se um trabalho protegido por direitos autorais integra o conjunto de formação de uma IA, a IA plagia esse trabalho, ao gerar dados sintéticos, mesmo que não o copie palavra por palavra?

O conteúdo produzido pela IA generativa é inteiramente determinado pelos dados subjacentes sobre os quais é treinada. Como esses dados são produzidos por seres humanos com todas as suas falhas e enviesamentos, os resultados podem ter falhas e enviesamentos, especialmente se operarem sem barreiras humanas. A OpenAI, empresa que criou o ChatGPT, antes de o abrir ao uso público, colocou proteções no modelo que o impedem de fazer coisas, como utilizar calúnias raciais; Porém, alguns afirmam que tais salvaguardas representam um tipo de preconceitos.

Para lá das questões filosóficas vexatórias, a IA generativa levanta problemas práticos: a formação de um modelo de IA generativa requer enorme consumo de energia, o que leva a grandes contas de computação em cloud, para empresas que entram neste espaço, e levanta a questão de saber se o aumento do consumo de energia (e as emissões de gases com efeito de estufa) vale a pena (questão que se levanta às moedas criptográficas e à tecnologia da cadeia de bloqueio).

Apesar destes problemas, é difícil ignorar a promessa da IA generativa. A capacidade do ChatGPT de extrair informação útil de enormes conjuntos de dados em resposta a consultas em linguagem natural vem desafiando os gigantes da pesquisa. A Microsoft testa o seu chatbot de IA, dublado Sydney, embora ainda esteja em beta e os resultados estejam misturados. Já a Phipps crê que tipos mais especializados de pesquisa um bom ajuste para a tecnologia.

A ideia de que a IA generativa pode escrever código informático para nós tem vindo a borbulhar há anos. Grandes modelos linguísticos como ChatGPT podem compreender linguagens de programação e linguagens faladas naturais; e, embora a IA generativa não vá substituir os programadores num futuro previsível, pode ajudar a aumentar a sua produtividade.

Por outro lado, esta seja uma preocupação, a criação de conteúdos é também uma oportunidade. A mesma IA que escreve e-mails de SPAM pode escrever e-mails legítimos de marketing, e tem havido uma explosão de iniciados de copywriting de IA. A IA generativa prospera quando se trata de formas de escrita altamente estruturadas que não requerem muita criatividade, tais como currículos e cartas de apresentação. A arte visual e a linguagem natural têm recebido muita atenção no espaço generativo da IA, porque são fáceis de compreender pelas pessoas comuns. Mas técnicas semelhantes estão a ser utilizadas para conceber tudo, desde microchips a novos medicamentos, e entrarão, em breve no reino da arquitetura informática.

***

A IA gerativa perturbará algumas indústrias e mudará ou eliminará muitos empregos, pelo que precisa de regulação. No entanto, muitíssimos textos continuarão a ser escritos por humanos.

2023.12.19 – Louro de Carvalho

Sem comentários:

Enviar um comentário