Primeira-ministra Meloni vai testemunhar em tribunal sobre o vídeo pornográfico “deepfake”

1 mes atrás 53

A primeira-ministra de Itália, Giorgia Meloni, vai testemunhar em tribunal num processo civil que intentou contra dois homens que alegadamente fizeram um vídeo pornográfico deepfake dela.

Primeira-ministra Meloni vítima de falso vídeo de pornografia

Giorgia Meloni pretende obter uma indemnização de 100.000 euros depois de um homem de 40 anos e o seu pai de 73 anos, que não foram identificados, terem alegadamente carregado um vídeo deepfake num site pornográfico sediado nos EUA, no qual o rosto da Primeira-Ministra era sobreposto ao corpo de uma estrela de filmes para adultos.

Os dois homens foram seguidos através dos seus telemóveis, os dispositivos que alegadamente utilizaram para fazer o vídeo não consensual e que foram posteriormente publicados em 2020, quando Meloni estava em campanha para ser primeiro-ministro. Meloni ganhou as eleições em 2022 como líder do seu partido Irmãos de Itália, com uma vitória esmagadora.

De acordo com informações da CNN, o vídeo esteve online durante meses e acumulou vários milhões de visualizações. Algumas das imagens ainda estão online.

Meloni foi chamada a testemunhar num tribunal da Sardenha, no dia 2 de julho.

A advogada de Meloni, Maria Giulia Marongiu, diz que o primeiro-ministro quer dar o exemplo a outras vítimas de pornografia deepfake e vai doar qualquer prémio financeiro ao fundo para vítimas de violência doméstica do Ministério do Interior.

4000 celebridades vítimas de pornografia deepfake

Numa investigação da estação de televisão britânica Channel 4, foram encontrados online 4000 vídeos pornográficos deepfake de celebridades.

Entre elas estão atores, estrelas de televisão, músicos e youtubers - que não foram identificados -, cujos rostos foram sobrepostos em material pornográfico utilizando IA generativa.

Uma apresentadora do Channel 4 News, Cathy Newman, foi encontrada entre as vítimas.

É uma sensação de violação. É uma sensação muito sinistra a de que alguém lá fora montou isto, que eu não consigo ver, e que consegue ver esta espécie de versão imaginária de mim, esta versão falsa de mim.

Disse a apresentadora.

O que é a tecnologia Deepfake?

Deepfake, uma amálgama de "deep learning" (aprendizagem profunda em inglês) e "fake" (falso em inglês), é uma técnica de síntese de imagens ou sons humanos baseada em técnicas de inteligência artificial. É mais usada para combinar a fala qualquer a um vídeo já existente. A técnica de aprendizagem automática mais utilizada para criação de vídeos falsos é a chamada Rede Generativa Adversarial.

Vídeos criados via deepfake foram muito utilizados para criar falsos vídeos de caráter sexual de celebridades, ou falsos vídeos de pornografia de vingança. A pornografia deepfake foi muito utilizada em 2017, particularmente em fóruns do Reddit, e tem sido banido de sites incluindo Reddit, Twitter e Pornhub. Deepfakes também podem ser utilizadas para gerar notícias falsas, como o exemplo na definição, e embustes maliciosos.

Vídeos não pornográficos criados por deepfakes podem ser facilmente encontrados em sites de streaming como o YouTube. Uma aplicação famosa de manipulação de vídeos e imagens é o FakeApp, o qual utiliza o framework de aprendizagem automática TensorFlow, desenvolvido pela Google, para as desejadas criações. Outra aplicação mais recente é o Deep Voice, aqui, no entanto, a ideia do software é clonar a voz original do orador.

Ler artigo completo