Têm ocorrido, na União Europeia (UE), vários alertas de alegada
interferência e de desinformação nas questões europeias, nomeadamente no respeitante
às eleições. A obviar a tais riscos, surgiu a Lei dos Serviços Digitais (LSD) como
a principal “arma” da Comissão Europeia para garantir o combate à desinformação
nas eleições europeias de junho, mas cabendo às grandes plataformas, como Facebook, o Instagram e o X, impor a
vigilância necessária, nesta matéria.
Têm-se sucedido alertas de interferência e de desinformação, principalmente
russa, no período de campanha eleitoral que antecede as eleições para o
Parlamento Europeu (PE), marcadas para 6 a 9 de junho, em que votam cerca de 400
milhões de cidadãos dos 27 estados-membros. A própria página de Internet da campanha de Ursula von der Leyen, candidata do Partido Popular Europeu
(PPE) à Comissão Europeia e atual líder da instituição, foi alvo de ciberataque
no início de maio. E vários os especialistas vêm alertando que este tipo de
situações se está a tornar mais frequente e mais sofisticado, face às últimas
eleições europeias, realizadas em maio de 2019.
Para responder a tais preocupações e após vários anos de enquadramentos
regulatórios voluntários, a UE tem em vigor, desde agosto de 2023, a LSD, que
obriga as plataformas online de
grande dimensão (como o Facebook e o Instagram da Meta, o X e outras) a remover conteúdos ilegais
para, assim, combater a desinformação no espaço virtual.
São abrangidas por esta legislação as plataformas com mais de 45 milhões de
utilizadores ativos na UE, obrigadas a atenuar os riscos conexos com os
processos eleitorais, salvaguardando, simultaneamente, os direitos fundamentais
e o direito à liberdade de expressão.
Em declarações à agência Lusa, Mark
Dempsey, investigador da organização de defesa da liberdade de expressão “Article
19”, sublinha que “a Lei dos Serviços
Digitais é o principal instrumento à disposição da Comissão Europeia, em
períodos eleitorais”, embora “o
ónus de aumentar a diligência durante os períodos eleitorais recaia sobre as
plataformas”. No entanto, como esclarece, “a Comissão pode verificar os
esforços das plataformas e, se os considerar insuficientes e com base em
provas, pode avançar com investigações”. Foi aliás o que já fez no final de
abril, relativamente à Meta (dona do Facebook
e do Instagram).
A UE tornou-se, desde final de agosto de 2023 e após um período de adaptação,
a primeira jurisdição do Mundo a dispor de regras para plataformas digitais,
que passam a estar obrigadas a remover conteúdos ilegais. As empresas que não
cumpram esta legislação podem ter coimas proporcionais à sua dimensão, podendo as
de maior dimensão ser sancionadas até 6% do seu volume de negócios global. São
alvo destas regras plataformas em linha de grande dimensão, com 45 milhões de
utilizadores ativos mensais, entre as quais o Facebook, o Instagram e o
X.
Criada, para proteger os direitos fundamentais dos utilizadores online, a LSD tornou-se numa legislação
inédita para o espaço digital que responsabiliza plataformas por conteúdos
ilegais e prejudiciais, nomeadamente desinformação.
No final de abril deste ano, por suspeitar que isso não estava a ser
cumprido, a Comissão Europeia avançou com uma investigação formal às
plataformas Facebook e Instagram, detidas pela Meta, por
alegada violação das novas regras dos serviços digitais da UE.
Bruxelas especificou, na altura, que “as suspeitas de infração abrangem as
políticas e práticas da Meta, em matéria de publicidade enganosa e de conteúdos
políticos, nos seus serviços”, dizendo também respeito a “campanhas de
desinformação e comportamentos inautênticos coordenados na UE”, numa altura de
campanha eleitoral. E adiantou suspeitar que a Meta tenha violado as novas
regras, pela “indisponibilidade de uma ferramenta eficaz de monitorização do
discurso cívico e das eleições em tempo real por parte de terceiros”, antes das
eleições para o PE.
A antever um cenário desafiante, logo em março passado, o executivo
comunitário divulgou recomendações às plataformas online de grande dimensão e aos motores de pesquisa, para atenuar
os riscos que poderiam afetar a integridade das eleições europeias, com
sugestões para os períodos anterior, posterior e do sufrágio. E propôs, desde
logo, que as plataformas criassem equipas internas com recursos adequados,
tomassem medidas de atenuação dos riscos como de literacia mediática e de inclusão
de rótulos em anúncios políticos, adotassem iniciativas conexas com a
Inteligência Artificial (IA) generativa (evitando manipulação de imagens ou
vídeos, os chamados ‘deepfakes’) e cooperassem com autoridades nacionais e da UE.
Além disso, propôs a criação de um mecanismo de resposta a incidentes e a
avaliação da eficácia das medidas.
No início de maio, a Comissão Europeia lançou ações de sensibilização sobre
a desinformação, a manipulação de informação e a ingerência estrangeira, no
âmbito das eleições europeias.
Segundo uma nota de imprensa do executivo comunitário, foi desenvolvida uma
campanha em colaboração com o grupo de reguladores europeus dos serviços de
media audiovisuais – que junta os organismos nacionais independentes dos 27 estados-membros
– para informar os cidadãos sobre os riscos da desinformação e a dar
ferramentas para a combater. O vídeo da campanha será divulgado em todos os estados-membros,
nas 24 línguas oficiais da UE, a partir do início de junho.
Foi anunciado que o gabinete estatístico da UE, o Eurostat, lançou um
serviço específico sobre verificação de factos e dados no âmbito das eleições
ao PE. Assim, até dia 15 de junho, o Eurostat fornecerá aos media e a verificadores de factos
respostas, num prazo de uma hora, sobre dados disponíveis nas suas bases de
dados, prazo que pode aumentar para questões mais complexas.
Entretanto, o Conselho da UE já informou querer que os influenciadores
digitais que criam conteúdos tenham noção do impacto negativo da partilha de
desinformação, propondo à Comissão que explore formas de os apoiar nesse
sentido. Os influenciadores, considerou o Conselho, necessitam de “competências
de literacia mediática para compreenderem o potencial impacto negativo da
partilha de informação errada e desinformação, do discurso de ódio em linha, da
ciberperseguição e de outros conteúdos ilegais ou nocivos”.
***
Visto que o combate à desinformação é uma prioridade da UE, desde 2015, há
outras ferramentas que podem ser adotadas, como o recurso aos especialistas do
Serviço Europeu de Ação Externa ou a ativação de mecanismos de crise ao nível
comunitário.
Ao nível regulatório, outras importantes leis não estarão em vigor a tempo
das eleições europeias de junho, como a Lei da Inteligência Artificial (LIA) ou
a Lei da Liberdade dos Meios de Comunicação Social (LLMCS). Em meados de março,
o PE aprovou aquela que classificou como uma “lei histórica” para regular a IA,
na UE, a primeira legislação ao nível mundial para esta tecnologia, para
salvaguardar os direitos fundamentais no espaço comunitário. Para isso, o
regulamento estabelece uma série de obrigações para a IA, com base nos seus
riscos potenciais e no seu nível de impacto, estipulando a proibição de certas
aplicações, limitações da utilização de sistemas de identificação biométrica
pelas autoridades policiais, isenções aplicáveis à aplicação da lei, obrigações
para os sistemas de alto risco e requisitos de transparência.
Esta é a primeira regulação direcionada para a IA, apesar de os criadores e
os responsáveis pelo desenvolvimento desta tecnologia estarem já sujeitos à
legislação europeia, em matéria de direitos fundamentais, de proteção dos
consumidores e de regras em matéria de segurança. E está prevista a introdução
de requisitos adicionais para colmatar os riscos, como a supervisão humana ou a
obrigação de informação clara sobre as capacidades e as limitações da IA.
A IA tem vindo a ser cada vez mais usada em áreas como o entretenimento
(personalização dos conteúdos), o comércio online
(previsão dos gostos dos consumidores), os eletrodomésticos (programação
inteligente) e os equipamentos eletrónicos (recurso aos assistentes virtuais
como a Siri ou a Alexa, entre outros).
Após o aval do PE, a adoção final pelos Estados-membros (no Conselho) deve
acontecer até ao final da legislatura, sendo que a lei entrará em vigor 20 dias
após a sua publicação no Jornal Oficial, havendo um período de adaptação de
dois anos. Assim, será plenamente aplicável, 24 meses após a sua entrada em
vigor, exceto no atinente a proibições de práticas proibidas (aplicáveis seis
meses após a data de entrada em vigor), aos códigos de conduta (nove meses após
a entrada em vigor), regras gerais de IA, incluindo a governação (12 meses após
a entrada em vigor) e obrigações para sistemas de alto risco (36 meses).
Por seu lado, as primeiras regras da UE para proteger jornalistas e
liberdade de imprensa já entraram em vigor. Proíbem sistemas de vigilância e
obrigam a que se conheçam os donos dos grupos de comunicação social, mas as
regras ainda não se aplicam na totalidade.
As salvaguardas de pluralismo tornam-se aplicáveis no prazo de seis meses,
seguindo-se outras aplicações faseadas até maio de 2027. Em causa está o novo
regulamento da UE sobre a Liberdade dos Meios de Comunicação Social, um novo
conjunto de regras sem precedentes para proteger a independência e o pluralismo,
que entraram em vigor, a 18 de maio, e que serão aplicadas, de forma faseada,
até maio de 2027, com salvaguardas contra a interferência política nas decisões
editoriais e contra a vigilância dos jornalistas.
A entrada em vigor destas que são as primeiras regras harmonizadas da UE
para independência e pluralismo dos media
surge após o aval final dos eurodeputados e adoção pelos estados-membros em
meados de março passado. A ideia é salvaguardar a liberdade, pluralismo e
independência editorial dos órgãos de comunicação social europeus, para
proteger jornalistas de interferência política e combater todas as formas de
pressão sobre meios de comunicação social na UE.
Com a nova legislação, está estipulado que os meios de comunicação social
passem a divulgar informações sobre quem são os seus proprietários e sobre quem
beneficia deles, direta ou indiretamente, bem como a publicidade estatal e o
apoio financeiro do Estado, incluindo fundos públicos de países terceiros. As
novas regras visam, ainda, assegurar o direito de os cidadãos acederem a
informação livre e pluralista, definindo responsabilidade de os Estados-membros
proporcionarem condições adequadas para o exercício de tal profissão, bem como responder
às crescentes preocupações existentes na UE, quanto à politização dos meios de
comunicação social, à falta de transparência e à afetação de fundos públicos
utilizados para fins publicitários aos fornecedores.
Em outubro de 2022, a Comissão Europeia (que tem iniciativa legislativa na
UE) propôs a LLMCS, com um novo conjunto de regras e mecanismos comuns.
No início de maio, o Conselho do Atlântico Norte, principal órgão de
decisão política da Organização do Tratado do Atlântico Norte (NATO), disse
estar “profundamente preocupado” com os recentes ataques híbridos, de
desinformação e interferência cibernética, da Rússia contra sete países aliados
(Chéquia, Estónia, Alemanha, Letónia, Lituânia, Polónia e Reino Unido),
garantindo ação individual e coletiva. Estão em causa “atividades de desinformação
[e de] sabotagem,
atos de violência, interferência cibernética e eletrónica, campanhas de
desinformação e outras operações híbridas”, especificou.
***
Não restam quaisquer dúvidas de que a desinformação
e a sabotagem são alguns dos principais meios de desestabilização e de Guerra.
E hoje são muitos, diversificados e sofisticados. Cabe, pois, aos países e às
organizações interestados montar os respetivos mecanismos de vigilância, sem inibição
de qualquer dos direitos fundamentais, e concitar a cooperação de todas as organizações
que intervêm no terreno. É também esta uma forma de construção da paz.
2024.05.18
– Louro de Carvalho
Sem comentários:
Enviar um comentário