O estudo “Inteligência artificial [IA] generativa: levantar o véu dos
direitos de autor”, levou Catarina Rodrigues Rocha a
vencer a 6.ª edição do “Law and Technology Award”, promovido pelo
Instituto de Conhecimento da Abreu Advogados, para incentivar o interesse dos
estudantes pela relação entre Direito e Tecnologia.
Licenciada em Direito pela NOVA School of Law, com Pós-Graduação Avançada
em Direito e Proteção de Dados pelo Centro de Investigação em Direito Privado (CIDP)
e Mestranda em Direito, Especialização Direito Empresarial e Tecnologia (Law
& Tech) na NOVA School of Law, analisou os desafios
para os direitos de autor com a implementação da IA generativa.
Nesta edição, os candidatos responderam à questão “A inteligência artificial
generativa desafia os mais variados setores, entre os quais o Direito. Escolhe
um dos temas em que terá impacto e propõe soluções”. “O meu trabalho focou-se
na conjugação da IA generativa e os Direitos de Autor. Tentei ter em
consideração as inseguranças da classe artística e que o novo
IA Act compatibilizasse os direitos de autor como existem, garantindo
também uma forma dos autores poderem conseguir analisar e verificar se estão a
ser cumpridas as regras. Assim permitindo que existisse uma self-awareness dos seus direitos de autor”,
sublinhou a vencedora, que vai receber um prémio monetário de 1.000 euros e irá
realizar o estágio profissional na Abreu Advogados, a partir de setembro de
2024.
“A IA generativa representa um avanço tecnológico notável, com
potencial de transformação de todos os setores. Quisemos, assim,
desafiar os estudantes de direito a proporem soluções para os diversos
problemas jurídicos que dela emergem. A Catarina Rocha destacou-se pela
profundidade da análise e adequação das soluções propostas”, explicou Luís
Barreto Xavier, consultor para a Inovação da Abreu e presidente do júri.
O Instituto de Conhecimento da Abreu Advogados vem desenvolvendo iniciativas
sobre Direito e Tecnologia. Além do prémio em referência, promoveu, em 2023,
pelo 5.º ano consecutivo, o “Lisbon Law & Tech”, um dos principais eventos
internacionais sobre Direito e Tecnologia, com a participação de alguns dos
principais especialistas mundiais nestes temas, e promoveu, com a Universidade
Católica Portuguesa, um “ColloquIA”, sobre IA generativa.
***
“Inteligência artificial (IA)
generativa” é expressão aplicável a qualquer tipo de processo automatizado que
utiliza algoritmos para produzir, manipular ou sintetizar dados, muitas vezes
em forma de imagens ou de texto legível por humanos. Como IA generativa, cria
algo não existente. Diferencia-se da IA discriminatória, que distingue entre
diferentes tipos de dados. Esta responde a perguntas como “Esta imagem é de um
gato ou de um cão?”; aquela desempenha tarefas como desenhar a imagem de um cão
e de um gato sentados juntos.
A IA generativa
existe desde que foi desenvolvido no MIT, em 1966ELIZA, um chatbot (recurso robótico) que simula a conversa com um terapeuta.
E anos de trabalho em IA e na aprendizagem de máquinas foram, há pouco, compensados
com o lançamento de novos sistemas generativos de IA, como o ChatGPT, chatbot de IA baseado em texto que
produz prosa semelhante à humana. A DALL-E e a Stable Diffusion atraíram a
atenção pela capacidade de criar imagens vibrantes e realistas, a partir de
mensagens de texto. Estes e outros sistemas similares são modelos, porque
representam a tentativa de simular ou modelar aspetos do mundo real a partir de
um subconjunto de informações sobre o mesmo.
Os
resultados destes sistemas levantam questões sobre a natureza da consciência e
terão impacto económico da IA generativa no emprego humano. E, apesar de estas
criações de IA serem grande notícia, o que se passa por debaixo da superfície é
muito menos do que se supõe.
A IA
generativa utiliza a aprendizagem mecânica para processar enorme quantidade de
dados visuais ou textuais, grande parte deles colhidos da Internet, e determinar as coisas que mais provavelmente aparecerão
perto de outras. Grande parte do trabalho de programação na IA generativa envolve
a criação de algoritmos capazes de distinguir as coisas que interessam aos
criadores da IA: palavras e frases no caso de chatbots como ChatGPT, ou elementos visuais para DALL-E. A IA
generativa cria resultados através da avaliação de um grande corpus de dados
sobre os quais foi treinada e, depois, responde a pedidos conexos com algo que
se enquadra na faixa de probabilidade determinada por esse corpus. O preenchimento
automático (o telemóvel ou o gmail
sugerem o possível resto da palavra ou frase a dactilografar) é uma forma de IA
generativa de baixo nível. Já modelos como o ChatGPT e o DALL-E levam a níveis avançados.
O processo de desenvolvimento dos
modelos para acomodar os dados é a formação, com técnicas subjacentes para
diferentes tipos de modelos. O ChatGPT utiliza um transformador (daí o T), que
deduz o significado de longas sequências de texto, para compreender como
diferentes palavras ou componentes semânticos podem relacionar-se entre si e
determinar a probabilidade de aparecerem próximos uns dos outros. Estes
transformadores são executados, sem supervisão, num corpus de texto de
linguagem natural num processo chamado pré-formação, antes de serem afinados
por humanos que interagem com o modelo.
Outra
técnica para treinar modelos é a rede de adversários generativos ou GAN, em que
há dois algoritmos concorrentes: um gera texto ou imagens com base em probabilidades
derivadas dum grande conjunto de dados; o outro é IA discriminatória, que os humanos
treinam para avaliarem se o produto é real ou gerado pela IA. A IA generativa
tenta enganar a IA discriminatória, adaptando-se para dar resultados
bem-sucedidos. Como a IA generativa ganha sistematicamente esta competição, os
humanos ajustam a IA discriminatória e o processo recomeça.
Embora haja
intervenção humana no processo de aprendizagem, a maior parte desta
aprendizagem e adaptação acontece automaticamente. São necessárias tantas
iterações para os modelos produzirem resultados interessantes que a
automatização é essencial. O processo é intensivo do ponto de vista
computacional. A matemática e a codificação necessárias para criar e treinar
modelos generativos de IA são complexas. Porém, se interagir com os modelos que
são o resultado final deste processo, a experiência pode ser estranha. Pode
fazer com que a DALL-E produza coisas que pareçam obras de arte ou ter conversas
com ChatGPT semelhantes a conversas com outro ser humano.
Terão os investigadores
criado uma máquina pensante? Chris Phipps, que trabalhou nos produtos de IA da
Watson, diz que não. Descreve o ChatGPT como uma “muito boa máquina de previsão”.
Prevê o que os humanos vão achar coerente. Nem sempre é coerente, mas isso não
é porque o ChatGPT “compreende”; ao invés, os humanos que consomem a produção
são muito bons a fazer as suposições implícitas de que precisamos para dar
sentido à produção.
Phipps compara
com um jogo de improvisação, o Mind Meld. Duas pessoas pensam numa palavra e
dizem-na em voz alta, em simultâneo: Tu dizes “cão” e eu digo “tela”. Criámos
estas palavras de forma independente, sem terem, no início, que ver uma com a
outra. Os dois participantes seguintes pegam nestas palavras e tentam inventar
algo que têm em comum e dizem-no em voz alta, em simultâneo. O jogo continua
até dois participantes dizerem a mesma palavra. Talvez ambos digam “pintor”. Trata-se
de usar o cérebro humano para raciocinar sobre o input (“cão” e “tela”) e encontrar ligação. Fazemos nós o trabalho
de compreensão, não a máquina. Com ChatGPT e DALL-E, acontece muito mais do que
as pessoas admitem. O ChatGPT pode escrever uma história, mas nós fazemos muito
do trabalho para lhe dar sentido.
Certas
instruções que damos a estes modelos de IA realçarão o argumento de Phipps. Por
exemplo, a resposta à questão “o que pesa mais, um quilo de carne ou um quilo
de lã”, é que pesam o mesmo, embora o nosso bom senso diga que a lã é mais leve.
O ChatGPT responderá corretamente à questão, podendo assumir que o faz por ser
computador lógico, que não tem “senso comum” para tropeçar. Mas não é isso que
acontece. O ChatGPT não raciocina logicamente; só gera resultados com base nas previsões
do que deve seguir-se a uma pergunta sobre um quilo de carne e um quilo de lã.
Porque o seu conjunto de treino inclui muito texto a explicar o enigma, reúne
uma versão dessa resposta correta. Mas, se se perguntar ao ChatGPT se dois
quilos de lã pesam mais de um quilo de carne, dirá com confiança que pesam o
mesmo, porque essa continua a ser a resposta mais provável a perguntas sobre lã
e carne, com base no seu conjunto de treino. É divertido dizer à IA que errou,
vê-la responder hesitante e, pedindo-lhe que peça desculpa do erro, sugerir que
dois quilos de lã pesam quatro vezes mais do que um quilo de carne.
Uma peculiaridade
notável da IA é retratar, frequentemente, pessoas com mãos estranhas – um
indicador de que a arte foi gerada artificialmente, fornecendo uma maior
perceção de como a IA generativa funciona. Assim, o corpus a partir do qual
DALL-E e ferramentas semelhantes de IA generativa visual produzem imagens de
pessoas com boa visão dos seus rostos, mas com mãos parcialmente obscurecidas
ou mostradas em ângulos estranhos, não deixa ver todos os seus dedos ao mesmo
tempo. Além disso, o facto de as mãos serem estruturalmente complexas, torna-as
muito difíceis de desenhar, mesmo para os artistas mais experientes. E a DALL-E
não monta um elaborado modelo 3D de mãos baseado nos vários renderings 2D do seu conjunto de treino.
A DALL-E nem sabe necessariamente que “mãos” é categoria coerente para
raciocinar. Tudo o que pode fazer é tentar prever, com base nas imagens que
tem, como é que uma imagem semelhante pode parecer. Apesar da enorme quantidade
de dados de formação, tais previsões ficam, muitas vezes, aquém das
expectativas.
Phipps crê
que um fator é a falta de dados negativos. A DALL-E treina, sobretudo, com base
em exemplos positivos. Não lhe foi dada uma imagem de uma mão com sete dedos e
dito ‘NÃO’. Assim, prevê o espaço do possível, não o espaço do impossível. Nunca
lhe foi dito para não criar uma mão com sete dedos. Há também o fator de que
estes modelos não pensam nos desenhos que fazem como um todo coerente, mas montam
uma série de componentes próximos uns dos outros, como mostram os dados da
formação. A DALL-E pode não saber que a mão deve ter cinco dedos, mas sabe que um
dedo será adjacente a outro. De facto, esta descrição do processo do DALL-E
está provavelmente a antropomorfizá-lo demasiado.
Estes
exemplos mostram uma das principais limitações da IA generativa: o que os
profissionais da indústria chamam “alucinações”, termo talvez enganador para
resultados que são, pelos padrões dos seres humanos que os utilizam, falsos ou
incorretos. Todos os sistemas informáticos produzem erros de vez em quando, mas
estes erros são especialmente problemáticos, porque é pouco provável que sejam
facilmente detetados pelos utilizadores finais: se se fizer uma pergunta a um
chatbot de IA, este normalmente não saberá a resposta e é mais provável que
aceite uma resposta dada na prosa confiante e totalmente idiomática que o
ChatGPT e modelos semelhantes produzem, mesmo que a informação esteja
incorreta.
Ainda que uma IA generativa produza resultados sem alucinações, há impactos
negativos potenciais na criação de conteúdos e na propriedade intelectual.
Quanto à criação de conteúdos, é claro que o ChatGPT e outras IA generativas não são mentes reais capazes de produzir
ideias criativas. Todavia, nem tudo o que é escrito ou desenhado precisa de ser
criativo. Muitos trabalhos de investigação visam apenas sintetizar dados disponíveis
ao público, tornando-se alvo perfeito para a IA generativa. E o facto de a
prosa sintética ou arte poder ser produzida automaticamente, a uma escala
sobre-humana, pode ter resultados estranhos ou imprevistos. Os criadores de
SPAM já utilizam o ChatGPT para escrever e-mails
de phishing.
A nível da propriedade
intelectual, levantam-se questões legais espinhosas ainda não testadas: Quem
possui uma imagem ou texto gerado por IA? Se um trabalho protegido por direitos
autorais integra o conjunto de formação de uma IA, a IA plagia esse trabalho, ao
gerar dados sintéticos, mesmo que não o copie palavra por palavra?
O conteúdo produzido pela IA generativa é inteiramente
determinado pelos dados subjacentes sobre os quais é treinada. Como esses dados
são produzidos por seres humanos com todas as suas falhas e enviesamentos, os
resultados podem ter falhas e enviesamentos, especialmente se operarem sem
barreiras humanas. A OpenAI, empresa que criou o ChatGPT, antes de o abrir ao
uso público, colocou proteções no modelo que o impedem de fazer coisas, como
utilizar calúnias raciais; Porém, alguns afirmam que tais salvaguardas
representam um tipo de preconceitos.
Para lá das
questões filosóficas vexatórias, a IA generativa levanta problemas práticos: a
formação de um modelo de IA generativa requer enorme consumo de energia, o que
leva a grandes contas de computação em cloud,
para empresas que entram neste espaço, e levanta a questão de saber se o
aumento do consumo de energia (e as emissões de gases com efeito de estufa)
vale a pena (questão que se levanta às moedas criptográficas e à tecnologia da
cadeia de bloqueio).
Apesar
destes problemas, é difícil ignorar a promessa da IA generativa. A capacidade
do ChatGPT de extrair informação útil de enormes conjuntos de dados em resposta
a consultas em linguagem natural vem desafiando os gigantes da pesquisa. A
Microsoft testa o seu chatbot de IA,
dublado Sydney, embora ainda esteja
em beta e os resultados estejam misturados. Já a Phipps crê que tipos mais
especializados de pesquisa um bom ajuste para a tecnologia.
A ideia de
que a IA generativa pode escrever código informático para nós tem vindo a borbulhar
há anos. Grandes modelos linguísticos como ChatGPT podem compreender linguagens
de programação e linguagens faladas naturais; e, embora a IA generativa não vá substituir
os programadores num futuro previsível, pode ajudar a aumentar a sua
produtividade.
Por outro lado, esta seja uma
preocupação, a criação de conteúdos é também uma oportunidade. A mesma IA que
escreve e-mails de SPAM pode escrever
e-mails legítimos de marketing, e tem
havido uma explosão de iniciados de copywriting
de IA. A IA generativa prospera quando se trata de formas de escrita altamente
estruturadas que não requerem muita criatividade, tais como currículos e cartas
de apresentação. A arte visual e a linguagem natural têm recebido muita atenção
no espaço generativo da IA, porque são fáceis de compreender pelas pessoas
comuns. Mas técnicas semelhantes estão a ser utilizadas para conceber tudo,
desde microchips a novos
medicamentos, e entrarão, em breve no reino da arquitetura informática.
***
A IA
gerativa perturbará algumas indústrias e mudará ou eliminará muitos empregos,
pelo que precisa de regulação. No entanto, muitíssimos textos continuarão a ser
escritos por humanos.
2023.12.19 – Louro de Carvalho
Sem comentários:
Enviar um comentário