sábado, 18 de maio de 2024

Bruxelas considera a nova lei digital “arma” contra a desinformação

 

Têm ocorrido, na União Europeia (UE), vários alertas de alegada interferência e de desinformação nas questões europeias, nomeadamente no respeitante às eleições. A obviar a tais riscos, surgiu a Lei dos Serviços Digitais (LSD) como a principal “arma” da Comissão Europeia para garantir o combate à desinformação nas eleições europeias de junho, mas cabendo às grandes plataformas, como Facebook, o Instagram e o X, impor a vigilância necessária, nesta matéria.

Têm-se sucedido alertas de interferência e de desinformação, principalmente russa, no período de campanha eleitoral que antecede as eleições para o Parlamento Europeu (PE), marcadas para 6 a 9 de junho, em que votam cerca de 400 milhões de cidadãos dos 27 estados-membros. A própria página de Internet da campanha de Ursula von der Leyen, candidata do Partido Popular Europeu (PPE) à Comissão Europeia e atual líder da instituição, foi alvo de ciberataque no início de maio. E vários os especialistas vêm alertando que este tipo de situações se está a tornar mais frequente e mais sofisticado, face às últimas eleições europeias, realizadas em maio de 2019.

Para responder a tais preocupações e após vários anos de enquadramentos regulatórios voluntários, a UE tem em vigor, desde agosto de 2023, a LSD, que obriga as plataformas online de grande dimensão (como o Facebook e o Instagram da Meta, o X e outras) a remover conteúdos ilegais para, assim, combater a desinformação no espaço virtual.

São abrangidas por esta legislação as plataformas com mais de 45 milhões de utilizadores ativos na UE, obrigadas a atenuar os riscos conexos com os processos eleitorais, salvaguardando, simultaneamente, os direitos fundamentais e o direito à liberdade de expressão.

Em declarações à agência Lusa, Mark Dempsey, investigador da organização de defesa da liberdade de expressão “Article 19”, sublinha que “a Lei dos Serviços Digitais é o principal instrumento à disposição da Comissão Europeia, em períodos eleitorais”, embora “o ónus de aumentar a diligência durante os períodos eleitorais recaia sobre as plataformas”. No entanto, como esclarece, “a Comissão pode verificar os esforços das plataformas e, se os considerar insuficientes e com base em provas, pode avançar com investigações”. Foi aliás o que já fez no final de abril, relativamente à Meta (dona do Facebook e do Instagram).

A UE tornou-se, desde final de agosto de 2023 e após um período de adaptação, a primeira jurisdição do Mundo a dispor de regras para plataformas digitais, que passam a estar obrigadas a remover conteúdos ilegais. As empresas que não cumpram esta legislação podem ter coimas proporcionais à sua dimensão, podendo as de maior dimensão ser sancionadas até 6% do seu volume de negócios global. São alvo destas regras plataformas em linha de grande dimensão, com 45 milhões de utilizadores ativos mensais, entre as quais o Facebook, o Instagram e o X.

Criada, para proteger os direitos fundamentais dos utilizadores online, a LSD tornou-se numa legislação inédita para o espaço digital que responsabiliza plataformas por conteúdos ilegais e prejudiciais, nomeadamente desinformação.

No final de abril deste ano, por suspeitar que isso não estava a ser cumprido, a Comissão Europeia avançou com uma investigação formal às plataformas Facebook e Instagram, detidas pela Meta, por alegada violação das novas regras dos serviços digitais da UE.

Bruxelas especificou, na altura, que “as suspeitas de infração abrangem as políticas e práticas da Meta, em matéria de publicidade enganosa e de conteúdos políticos, nos seus serviços”, dizendo também respeito a “campanhas de desinformação e comportamentos inautênticos coordenados na UE”, numa altura de campanha eleitoral. E adiantou suspeitar que a Meta tenha violado as novas regras, pela “indisponibilidade de uma ferramenta eficaz de monitorização do discurso cívico e das eleições em tempo real por parte de terceiros”, antes das eleições para o PE.

A antever um cenário desafiante, logo em março passado, o executivo comunitário divulgou recomendações às plataformas online de grande dimensão e aos motores de pesquisa, para atenuar os riscos que poderiam afetar a integridade das eleições europeias, com sugestões para os períodos anterior, posterior e do sufrágio. E propôs, desde logo, que as plataformas criassem equipas internas com recursos adequados, tomassem medidas de atenuação dos riscos como de literacia mediática e de inclusão de rótulos em anúncios políticos, adotassem iniciativas conexas com a Inteligência Artificial (IA) generativa (evitando manipulação de imagens ou vídeos, os chamados ‘deepfakes’) e cooperassem com autoridades nacionais e da UE. Além disso, propôs a criação de um mecanismo de resposta a incidentes e a avaliação da eficácia das medidas.

No início de maio, a Comissão Europeia lançou ações de sensibilização sobre a desinformação, a manipulação de informação e a ingerência estrangeira, no âmbito das eleições europeias.

Segundo uma nota de imprensa do executivo comunitário, foi desenvolvida uma campanha em colaboração com o grupo de reguladores europeus dos serviços de media audiovisuais – que junta os organismos nacionais independentes dos 27 estados-membros – para informar os cidadãos sobre os riscos da desinformação e a dar ferramentas para a combater. O vídeo da campanha será divulgado em todos os estados-membros, nas 24 línguas oficiais da UE, a partir do início de junho.

Foi anunciado que o gabinete estatístico da UE, o Eurostat, lançou um serviço específico sobre verificação de factos e dados no âmbito das eleições ao PE. Assim, até dia 15 de junho, o Eurostat fornecerá aos media e a verificadores de factos respostas, num prazo de uma hora, sobre dados disponíveis nas suas bases de dados, prazo que pode aumentar para questões mais complexas.

Entretanto, o Conselho da UE já informou querer que os influenciadores digitais que criam conteúdos tenham noção do impacto negativo da partilha de desinformação, propondo à Comissão que explore formas de os apoiar nesse sentido. Os influenciadores, considerou o Conselho, necessitam de “competências de literacia mediática para compreenderem o potencial impacto negativo da partilha de informação errada e desinformação, do discurso de ódio em linha, da ciberperseguição e de outros conteúdos ilegais ou nocivos”.

***

Visto que o combate à desinformação é uma prioridade da UE, desde 2015, há outras ferramentas que podem ser adotadas, como o recurso aos especialistas do Serviço Europeu de Ação Externa ou a ativação de mecanismos de crise ao nível comunitário.

Ao nível regulatório, outras importantes leis não estarão em vigor a tempo das eleições europeias de junho, como a Lei da Inteligência Artificial (LIA) ou a Lei da Liberdade dos Meios de Comunicação Social (LLMCS). Em meados de março, o PE aprovou aquela que classificou como uma “lei histórica” para regular a IA, na UE, a primeira legislação ao nível mundial para esta tecnologia, para salvaguardar os direitos fundamentais no espaço comunitário. Para isso, o regulamento estabelece uma série de obrigações para a IA, com base nos seus riscos potenciais e no seu nível de impacto, estipulando a proibição de certas aplicações, limitações da utilização de sistemas de identificação biométrica pelas autoridades policiais, isenções aplicáveis à aplicação da lei, obrigações para os sistemas de alto risco e requisitos de transparência.

Esta é a primeira regulação direcionada para a IA, apesar de os criadores e os responsáveis pelo desenvolvimento desta tecnologia estarem já sujeitos à legislação europeia, em matéria de direitos fundamentais, de proteção dos consumidores e de regras em matéria de segurança. E está prevista a introdução de requisitos adicionais para colmatar os riscos, como a supervisão humana ou a obrigação de informação clara sobre as capacidades e as limitações da IA.

A IA tem vindo a ser cada vez mais usada em áreas como o entretenimento (personalização dos conteúdos), o comércio online (previsão dos gostos dos consumidores), os eletrodomésticos (programação inteligente) e os equipamentos eletrónicos (recurso aos assistentes virtuais como a Siri ou a Alexa, entre outros).

Após o aval do PE, a adoção final pelos Estados-membros (no Conselho) deve acontecer até ao final da legislatura, sendo que a lei entrará em vigor 20 dias após a sua publicação no Jornal Oficial, havendo um período de adaptação de dois anos. Assim, será plenamente aplicável, 24 meses após a sua entrada em vigor, exceto no atinente a proibições de práticas proibidas (aplicáveis seis meses após a data de entrada em vigor), aos códigos de conduta (nove meses após a entrada em vigor), regras gerais de IA, incluindo a governação (12 meses após a entrada em vigor) e obrigações para sistemas de alto risco (36 meses).

Por seu lado, as primeiras regras da UE para proteger jornalistas e liberdade de imprensa já entraram em vigor. Proíbem sistemas de vigilância e obrigam a que se conheçam os donos dos grupos de comunicação social, mas as regras ainda não se aplicam na totalidade.

As salvaguardas de pluralismo tornam-se aplicáveis no prazo de seis meses, seguindo-se outras aplicações faseadas até maio de 2027. Em causa está o novo regulamento da UE sobre a Liberdade dos Meios de Comunicação Social, um novo conjunto de regras sem precedentes para proteger a independência e o pluralismo, que entraram em vigor, a 18 de maio, e que serão aplicadas, de forma faseada, até maio de 2027, com salvaguardas contra a interferência política nas decisões editoriais e contra a vigilância dos jornalistas.

A entrada em vigor destas que são as primeiras regras harmonizadas da UE para independência e pluralismo dos media surge após o aval final dos eurodeputados e adoção pelos estados-membros em meados de março passado. A ideia é salvaguardar a liberdade, pluralismo e independência editorial dos órgãos de comunicação social europeus, para proteger jornalistas de interferência política e combater todas as formas de pressão sobre meios de comunicação social na UE.

Com a nova legislação, está estipulado que os meios de comunicação social passem a divulgar informações sobre quem são os seus proprietários e sobre quem beneficia deles, direta ou indiretamente, bem como a publicidade estatal e o apoio financeiro do Estado, incluindo fundos públicos de países terceiros. As novas regras visam, ainda, assegurar o direito de os cidadãos acederem a informação livre e pluralista, definindo responsabilidade de os Estados-membros proporcionarem condições adequadas para o exercício de tal profissão, bem como responder às crescentes preocupações existentes na UE, quanto à politização dos meios de comunicação social, à falta de transparência e à afetação de fundos públicos utilizados para fins publicitários aos fornecedores.

Em outubro de 2022, a Comissão Europeia (que tem iniciativa legislativa na UE) propôs a LLMCS, com um novo conjunto de regras e mecanismos comuns.

No início de maio, o Conselho do Atlântico Norte, principal órgão de decisão política da Organização do Tratado do Atlântico Norte (NATO), disse estar “profundamente preocupado” com os recentes ataques híbridos, de desinformação e interferência cibernética, da Rússia contra sete países aliados (Chéquia, Estónia, Alemanha, Letónia, Lituânia, Polónia e Reino Unido), garantindo ação individual e coletiva. Estão em causa “atividades de desinformação [e de] sabotagem, atos de violência, interferência cibernética e eletrónica, campanhas de desinformação e outras operações híbridas”, especificou.

***

Não restam quaisquer dúvidas de que a desinformação e a sabotagem são alguns dos principais meios de desestabilização e de Guerra. E hoje são muitos, diversificados e sofisticados. Cabe, pois, aos países e às organizações interestados montar os respetivos mecanismos de vigilância, sem inibição de qualquer dos direitos fundamentais, e concitar a cooperação de todas as organizações que intervêm no terreno. É também esta uma forma de construção da paz.

2024.05.18 – Louro de Carvalho

Sem comentários:

Enviar um comentário