Um vídeo de IA mostra Narendra Modi, o primeiro-ministro da Índia, usando um casaco e calças modernos, dançando animadíssimo em um palco ao som de uma música de Bollywood enquanto a multidão aplaude. Modi compartilhou o vídeo na rede social X, dizendo que “tanta criatividade na época de pico das eleições é realmente maravilhosa.”
Outro vídeo, com o mesmo cenário, mostra a rival de Modi, Mamata Banerjee, dançando com uma roupa semelhante a um sari, mas a trilha sonora consiste de trechos de um discurso seu criticando aqueles que saíram de seu partido para se juntar a Modi. A polícia estadual iniciou uma investigação dizendo que o vídeo pode “afetar a lei e a ordem”.
As diferentes reações aos vídeos criados usando ferramentas de inteligência artificial destacam como o uso e abuso da tecnologia estão aumentando e causando preocupações para reguladores e autoridades de segurança na Índia, já que a nação mais populosa do mundo realiza uma eleição geral gigantesca.
Vídeos de IA fáceis de fazer, que contêm sombras e movimentos de mão quase perfeitos, às vezes podem enganar até mesmo pessoas acostumadas com a internet. Mas os riscos são maiores em um país onde muitos dos 1,4 bilhão de habitantes não estão familiarizados com novas tecnologias, e onde conteúdos manipulados podem facilmente provocar tensões sectárias, especialmente durante as eleições.
De acordo com uma pesquisa do Fórum Econômico Mundial publicada em janeiro, o risco de desinformação na Índia é visto como mais grave para o país do que o risco de doenças infecciosas ou atividades econômicas ilícitas nos próximos dois anos.
“A Índia já está em grande risco de desinformação. Com a IA, ela pode se espalhar com a velocidade 100 vezes maior”, disse o consultor baseado em Nova Delhi Sagar Vishnoi, que está assessorando alguns partidos políticos sobre o uso de IA nas eleições da Índia.
“Pessoas idosas, frequentemente não tão familiarizadas com tecnologia, cada vez mais caem em narrativas falsas auxiliadas por vídeos de IA. Isso poderia ter consequências sérias, como incitar o ódio contra uma comunidade, casta ou religião.”
A eleição nacional de 2024, realizada ao longo de seis semanas e que termina em 1º de junho, é a primeira em que a IA está sendo utilizada. Exemplos iniciais eram inocentes, restritos a alguns políticos que usavam a tecnologia para criar vídeos e áudios personalizados para suas campanhas.
Mas casos importantes de uso indevido chegaram às manchetes em abril, incluindo deepfakes de atores de Bollywood criticando Modi e clipes falsos envolvendo dois dos principais auxiliares de Modi que levaram à prisão de nove pessoas.
A Comissão Eleitoral da Índia alertou os partidos na semana passada contra o uso de IA para espalhar desinformação e alertou que a legislação prevê penas de até três anos de prisão por crimes como falsificação, promoção de boatos e hostilidade.
Uma autoridade sênior de segurança nacional em Nova Delhi disse que as autoridades estão preocupadas com a possibilidade de notícias falsas levarem a instabilidade. A fácil disponibilidade de ferramentas de IA torna possível criar tais notícias falsas, especialmente durante as eleições, e é difícil de contradizer, disse a autoridade.
“Não temos uma capacidade de monitoramento adequada…o ambiente de IA está em constante evolução e é difícil de acompanhar”, disse.
Um outro funcionário eleitoral sênior disse: “não somos capazes de monitorar totalmente as redes sociais, quanto mais controlar o conteúdo.”
Eles se recusaram a ser identificados porque não estavam autorizados a falar com a mídia.
A IA e os deepfakes estão sendo cada vez mais utilizados em eleições em outros lugares do mundo, incluindo nos EUA, Paquistão e Indonésia. A disseminação mais recente dos vídeos na Índia mostra os desafios enfrentados pelas autoridades.
Há anos existe na Índia um painel ministerial de TI que tem a função de ordenar o bloqueio de conteúdo que considera prejudicial à ordem pública, e que pode fazer isso de ofício ou ao receber reclamações. Durante esta eleição, a autoridade eleitoral e a polícia em todo o país mobilizaram centenas de agentes para detectar e buscar a remoção de conteúdos problemáticos.
Enquanto a reação de Modi ao seu vídeo de dança de IA foi descontraída, dizendo que também gostou de se ver dançar, a polícia da cidade de Calcutá, no estado de Bengala Ocidental, iniciou uma investigação contra o usuário do X SoldierSaffron7 por compartilhar o vídeo de Banerjee, a rival de Modi.
A autoridade de cibercrime de Calcutá, Dulal Saha Roy, compartilhou um aviso no X pedindo ao usuário para excluir o vídeo ou sofrer represálias judiciais.
“Não vou excluir isso, não importa o que aconteça”, disse o usuário à Reuters via mensagens diretas no X, se recusando a compartilhar seu número ou nome real, pois temia ação policial. “Eles não podem me rastrear.”
Os agentes eleitorais disseram à Reuters que as autoridades só podem pedir às plataformas de mídia social para remover conteúdos, e que não tem o que fazer se as empresas afirmarem que as postagens não violam suas políticas internas.
Os vídeos de dança de Modi e Banerjee, com 30 milhões e 1,1 milhão de visualizações respectivamente no X, foram criados usando um site gratuito chamado Viggle. O site pede apenas uma fotografia e algumas instruções básicas detalhadas em um tutorial e já consegue gerar vídeos que mostram a pessoa na fotografia dançando ou fazendo outros movimentos da vida real.
O co-fundador do Viggle, Hang Chu, e o gabinete de Banerjee não responderam às perguntas da Reuters. Além dos dois vídeos de IA dançando, outro vídeo de 25 segundos do Viggle que está se espalhando na internet mostra Banerjee aparecendo na frente de um hospital em chamas e o explodindo usando um controle remoto.
É um clipe alterado por IA de uma cena do filme de 2008, O Cavaleiro das Trevas, que mostra o inimigo do Batman, o Coringa, causando os estragos. A postagem do vídeo tem 420.000 visualizações.
A polícia de Bengala Ocidental acredita que isso viola as leis de tecnologia indianas, mas o X não tomou nenhuma providência, pois “acredita fortemente em defender e respeitar a voz de nossos usuários”, de acordo com um aviso por e-mail enviado pela X ao usuário, ao qual a Reuters teve aceso.
“Não podem fazer nada comigo. Não levei [o aviso] a sério”, disse o usuário à Reuters via mensagem direta da X.