Vídeos manipulados de endossos políticos são sofisticados demais para discernir ou rastrear. Especialistas dizem que a intenção pode ser a psicologia reversa – minar o partido que o vídeo endossa, uma vez que os eleitores descubram que é falso

As eleições parlamentares indianas em curso, como as dos EUA, Paquistão e Indonésia, estão testemunhando o uso criativo da inteligência artificial. Alguns conteúdos gerados por IA, como telefonemas para eleitores aparentemente de candidatos, mas na verdade por vozes geradas por IA, são inofensivos. Outros, como vídeos deepfake de estrelas de cinema endossando ostensivamente um partido em detrimento de outro, ou do ministro do Interior do país defendendo a abolição das ações afirmativas, são mais sinistros.
E os principais policiais da Índia estão um passo atrás dos “maus atores” do ciberespaço, incapazes de discernir deepfakes de vídeos reais e incapazes de rastrear suas origens, ficando com o único recurso de bloqueá-los – quando já é tarde demais.
O termo “deepfake” deriva de “deep learning” e “fake”, e significa a manipulação digital da mídia para substituir a imagem de uma pessoa pela de outra.
Há quase duas semanas, surgiram vídeos de estrelas de Bollywood Aamir Khan e Ranveer Singh criticando o primeiro-ministro Narendra Modi e pedindo que as pessoas votassem no Partido do Congresso, de oposição. Os atores não perderam tempo em reclamar com a ala de crimes cibernéticos da polícia de Mumbai – mas, até então, os vídeos haviam sido vistos mais de meio milhão de vezes.
Meio milhão pode não parecer muito, dado que o YouTube, de propriedade do Google, tem 462 milhões de usuários na Índia, e o eleitorado é de 968 milhões. São 900 milhões de internautas, segundo levantamento do Centro Esya e do IIM (A); Em média, cada um passa 194 minutos por dia navegando nas redes sociais.
No entanto, como disse a ciberpsicóloga e palestrante do TEDx Nirali Bhatia à RT, graças às mídias sociais, todos formarão suas próprias opiniões e julgamentos sobre o assunto – o que pode ser muito mais prejudicial.

Poder da psicologia reversa
A psefóloga Dayanand Nene explica que vídeos deepfake podem influenciar a opinião pública e desacreditar pessoas e políticos. “Os deepfakes exploram várias vulnerabilidades psicológicas”, disse ele à RT.
Os humanos têm uma tendência natural de confiar no que veem e ouvem, e os deepfakes aproveitam isso criando conteúdo realista. “Além disso, vieses cognitivos, como o viés de confirmação – onde somos mais propensos a acreditar em informações que confirmam nossas crenças pré-existentes – nos tornam suscetíveis a deepfakes que se alinham com nossos pontos de vista.” Disse Nene.
No domingo, por exemplo, a polícia de Deli teve de registar um caso depois de ter sido encontrado um vídeo adulterado em que o ministro do Interior, Amit Shah, foi visto a defender a abolição da educação e das quotas de emprego para os desfavorecidos da Índia – dalits e castas “atrasadas”. Era um deepfake, manipulado a partir de um discurso que ele fez no estado de Telangana, no sul da Índia, e viralizou.
O alto número de visualizações se deveu à curiosidade, segundo Bhatia, já que as celebridades ainda são muito mais populares do que os influenciadores. Além disso, os deepfakes funcionarão como psicologia reversa – impactando negativamente o partido que está sendo endossado quando ficar claro que são deepfakes.
“Na minha opinião, essa era a pauta desses vídeos. Bhatia, que estuda o impacto da tecnologia no comportamento humano, disse. “Os eleitores inteligentes podem entender a verdadeira agenda, mas a maioria age com base no sentimento e não na decisão racional.”

Os deepfakes transferem a atenção do “conteúdo” para a “intenção” na criação dessas falsificações. “E é isso que vai ser o fator de influência.” Bhatia, fundador do CyberBAAP (Cyber Bullying Awareness, Action and Prevention), disse.
A investigação tem se mostrado desafiadora. Policiais que falam sob condição de anonimato dizem que é difícil diferenciar fakes da realidade. Deepfakes são de baixo custo, fáceis de fazer e difíceis de rastrear, dando aos maus atores “uma corrida livre”.
De acordo com funcionários do governo que auxiliam a investigação, acredita-se que os criadores dos vídeos deepfake tenham usado o modelo de difusão, uma ferramenta de IA que permite que agentes mal-intencionados explorem vídeos disponíveis em sites de mídia social. “A ferramenta permite que eles recriem praticamente qualquer coisa”, disse um funcionário à RT.
Treinamento de IA
O modelo de difusão gera imagens únicas, aprendendo a desruídos e a reconstruir o conteúdo. Então, como funciona?
O cientista da computação Srijan Kumar, premiado pelo trabalho sobre segurança e integridade de mídia social, explicou que, dependendo do prompt, um modelo de difusão pode criar imagens e fotos extremamente imaginativas com base nas propriedades estatísticas de seus dados de treinamento – tudo em questão de segundos.
“No passado, os rostos individuais tinham que ser sobrepostos, o que era um processo demorado.” Kumar disse. “Agora, com o modelo de difusão, várias imagens podem ser geradas com um único comando. Não exige muito conhecimento técnico.”
Nos vídeos de Aamir Khan e Ranveer Singh, os dois atores supostamente dizem que Modi falhou em cumprir promessas de campanha e falhou em abordar questões econômicas críticas durante seus dois mandatos.
No momento em que o vídeo de Singh veio à tona, em 17 de abril, a porta-voz do Congresso, Sujata Paul, o compartilhou com seus 16 mil seguidores no X. Depois disso, sua publicação foi compartilhada 2.900 vezes e curtida 8.700 vezes. O vídeo recebeu 438 mil visualizações.

Esta não é a primeira vez que Bollywood é atingida por deepfakes. Mais cedo, os atores Rashmika Mandanna e Kajol figuraram em deepfakes que circulam na internet. No vídeo de Mandanna, seu rosto foi sobreposto ao da personalidade de mídia social britânica-indiana Zara Patel, que estava entrando em um elevador em um tom revelador.
Esses visuais gerados por IA têm a capacidade de minar qualquer sistema de rastreamento na internet. “É precisamente por isso que é quase impossível determinar se uma imagem é real ou falsa.” Kumar, cofundador e CEO da Lighthouz AI, disse.
Usando modelos generativos de IA, o custo de produzir conteúdo de alta qualidade, tanto bom quanto ruim, caiu drasticamente. “As ferramentas de IA permitem a manipulação em uma escala inimaginável”, disse o especialista em ciberespaço, que criou métodos de ciência de dados para combater falsos revisores em plataformas de comércio eletrônico. “Ele desempenha um papel fundamental na criação de conteúdo realista, mas totalmente fabricado e desinformativo.”
Outro modelo, ou melhor, uma extensão da ferramenta de IA existente, é a difusão estável, um modelo de aprendizagem profunda de texto para imagem usado para criar deepfakes.
“É completamente de código aberto e o gerador de imagens mais adaptável”, diz um funcionário do governo envolvido na investigação (mas que pediu anonimato devido ao sigilo de sua organização). “Acredita-se que a difusão estável está sendo fortemente confiada no Ocidente para criar deepfakes.”
Até agora, os investigadores não estão claros se os vídeos deepfake de atores de Bollywood foram gerados no exterior ou foram feitos na Índia. Enquanto a polícia bloqueou os vídeos, o Ministério de Eletrônica e TI da Índia pediu às plataformas de mídia social, como X (antigo Twitter) e Meta, que regulem a proliferação de deepfakes gerados por IA.
Corrida com tecnologia
Existem soluções de detecção e mitigação para vídeos deepfake?
“Bastantes, mas são preliminares e não dão conta dos muitos tipos de imagens e vídeos gerados.” Kumar disse.
As mais populares entre as crescentes ferramentas de detecção/mitigação de deepfake incluem o Detector de Deepfake em Tempo Real (FakeCatcher) da Intel. Ele se concentra na velocidade e eficiência. Utilizando hardware e software Intel, o FakeCatcher analisa detalhes fisiológicos sutis, como variações do fluxo sanguíneo em pixels.

Outra é a ferramenta de autenticador de vídeo da Microsoft, que analisa vídeos e imagens e fornece para cada um uma pontuação de confiança que indica a probabilidade de manipulação. Ele afirma identificar inconsistências na mistura de limites e elementos sutis em tons de cinza que são invisíveis ao olho humano
Um dos principais desafios que os pesquisadores enfrentam é que, à medida que novos detectores são desenvolvidos, a tecnologia generativa evolui para incorporar métodos para evitar a detecção desses detectores.
“Está cada vez mais difícil identificar deepfakes com o avanço da tecnologia, a facilidade de acesso e o menor custo.” Kumar diz. “Infelizmente, não há uma resolução imediata à vista.”
Ele diz que, assim como os softwares antivírus e antimalware, os usuários finais terão que usar equivalentes em seus dispositivos para se proteger contra deepfakes. Por Vikram Sharma, repórter geral. Fonte: Rt