Fotos de paparazzi eram o fardo das celebridades. Agora, é a IA.

Pesquisadores afirmam que avanços em inteligência artificial poderiam ser usados para aumentar a desinformação sobre figuras públicas. Uma imagem recente até enganou especialistas.

Uma imagem falsa do Papa Francisco vestindo um elegante puffer branco foi apenas um post viral e engraçado para muitos. Mas especialistas em inteligência artificial dizem que suas implicações não são motivo de riso.

Vários pesquisadores disseram que a imagem, criada usando o gerador de imagens de IA Midjourney, é um sinal de uma próxima onda de desinformação em que fotos falsas serão mais convincentes do que nunca. 

Mesmo aqueles que são especialistas em IA e mídias sociais nem sempre conseguem distinguir o que é real do que não é.

“Eu achei excelente”, disse Jeff Hancock, professor de comunicação na Universidade Stanford e diretor fundador do Stanford Social Media Lab, sobre o fotorrealismo da imagem do Papa. “Tudo se encaixou bem, não havia distorções óbvias”, acrescentou.

A inteligência artificial entrou na vida cotidiana, otimizando desde o planejamento de refeições até a escrita de ensaios e a detecção de câncer. 

Embora o potencial completo dessa tecnologia ainda não tenha sido totalmente atingido, ferramentas como Midjourney, ChatGPT, DALL-E e Stable Diffusion já estão sendo amplamente utilizadas para criar textos e imagens que se espalham facilmente online. 

(Anteriormente, os usuários do DALL-E eram impedidos de editar imagens de rostos humanos reais, mas essa restrição foi suspensa em setembro do ano passado.)

Eles também tornaram mais fácil para as pessoas usarem e abusarem das semelhanças de figuras públicas online. 

No outono passado, figuras como Leonardo DiCaprio e Elon Musk viram seus rostos sendo usados em anúncios sem sua permissão, enquanto a NBC News informou que o rosto da atriz Emma Watson foi usado para criar vídeos sexualmente provocativos em um anúncio de um aplicativo para celular de deepfake no mês passado.

“Qualquer troll da internet agora pode, com apenas algumas teclas e um clique de um botão, criar imagens convincentes que podem enganar um humano”, explicou Andrew Owens, professor assistente de engenharia elétrica e ciência da computação na Universidade de Michigan.

Em comunicado, um porta-voz da Stability AI, a empresa que criou o Stable Diffusion, disse que a empresa está procurando maneiras de combater o potencial da IA para criar desinformação.

“Estamos trabalhando atualmente com empresas líderes e pesquisadores no assunto de segurança digital para implementar uma solução segura e de longo prazo para essa questão”, esclareceu o porta-voz. 

Representantes da Midjourney, ChatGPT e DALL-E não responderam aos pedidos de comentário.

Na semana passada, conforme notícias circulavam sobre a possível prisão de Donald Trump, imagens do ex-presidente sendo preso, imobilizado e levado pela polícia inundaram o Twitter. Muitas das imagens foram criadas com o Midjourney, o mesmo serviço usado para criar as fotos falsas do Papa.

Para Ari Lightman, professor de mídia digital e marketing do Heinz College of Information Systems and Public Policy da Universidade Carnegie Mellon, a proliferação de imagens geradas por IA cada vez mais sofisticadas marca uma nova fronteira na disseminação de notícias falsas.

Os especialistas disseram que as imagens geralmente são postadas nas redes sociais com pouco ou nenhum contexto e podem ser tidas como verdadeiras. 

Conforme a geração de imagens por IA continua a melhorar, os sinais habituais de imagens falsas, como mãos com muitos dedos ou olhos estranhos, começarão a desaparecer.

“Quando é apresentado com o contexto de ‘olhe, isso pode ser falso’, então, claro, seus ‘sentidos aranha’ serão ativados”, disse Abhishek Gupta, fundador e pesquisador principal do Montreal AI Ethics Institute. “Mas em casos regulares, se você está apenas navegando, pode rir da imagem e continuar rolando em vez de continuar questionando a imagem”.

Mickinzy Seneff, uma estudante de 21 anos da Universidade da Califórnia, Santa Cruz, pausou quando viu um vídeo em seu feed do Twitter do astro pop Harry Styles beijando a modelo, autora e podcaster Emily Ratajkowski. 

Pareceu estranho, expressou Mickinzy, e ela assumiu que as celebridades haviam sido identificadas incorretamente.

Depois de ler um post viral no Twitter sugerindo que o vídeo foi gerado por IA, ela começou a acreditar nisso.

“A IA é realmente enorme”, afirmou a estudante. “Então não foi tão difícil para mim pensar, ‘Oh, este vídeo parece que é de pessoas falsas'”. 

Se a teoria fosse verdadeira, ela disse, isso poderia explicar por que o vídeo estava tão borrado e por que a postura do casal era estranha – sem mencionar a natureza extremamente pública da situação, que parecia ser nas ruas de Tóquio, com o casal apoiado em uma van. 

Um porta-voz da modelo não respondeu aos pedidos de comentário, e o Harry Styles não pôde ser contatado para comentar. Nenhum dos dois comentou publicamente sobre as fotos, que apareceram pela primeira vez no Daily Mail sem um fotógrafo creditado.

Quando as imagens das pessoas são granuladas e os rostos são difíceis de distinguir, os especialistas dizem que é difícil dizer com certeza se elas são autênticas. Em teoria, seria relativamente fácil gerar imagens estáticas de um casal de celebridades reais em um momento íntimo.

“Com uma capacidade de computação poderosa, podemos fazer as imagens fazerem praticamente o que quisermos”, disse o professor Lightman. “Distorcê-las de maneiras específicas, adicionar peças específicas de roupas como a parka do Papa”.

Todavia, criar vídeos convincentes de seres humanos reais ainda é uma tarefa difícil para a IA, acrescentaram eles, já que o olho humano pode detectar até mesmo as menores irregularidades no movimento. 

Os vídeos também são essencialmente uma série de imagens diferentes, e cada imagem tem que ser convincente – algo que a aprendizagem de máquina ainda não conseguiu. A tecnologia está a caminho, no entanto, disseram os especialistas, e provavelmente se desenvolverá mais rapidamente do que o esperado.

Depois de ver mais imagens do casal capturadas de ângulos diferentes, Mickinzy falou que agora acredita que as imagens são reais. Mas a experiência a deixou ainda mais perturbada com um futuro repleto de desinformação visual gerada por IA.

“Acho assustador pensar que as coisas que são de IA parecem tão reais”, disse ela. “E essas coisas que são reais podem ser vistas como IA”.

Os debates sobre a autenticidade de fotos de celebridades são apenas a ponta do iceberg, afirmou Baobao Zhang, professora assistente de ciência política na Universidade de Syracuse. 

A Dra. Zhang mencionou imagens que viu recentemente no Reddit de pessoas usando inteligência artificial para gerar versões falsas de eventos históricos reais.

“Acho que há riscos reais nas redes sociais”, declarou a Dra. Zhang.

Lightman afirmou que também estava preocupado com a capacidade de imagens geradas por IA de manipular a economia. Por exemplo, ele disse, uma imagem falsa de um CEO fazendo algo suspeito poderia fazer o valor de uma ação cair e potencialmente danificar todo um setor financeiro.

“Acho que vamos chegar a um ponto de inflexão em que o impacto social da desinformação se tornará evidente”, expôs Lightman.

O ceticismo extremo sobre a autenticidade de uma imagem também pode levar à paranoia. 

No Gabão, uma tentativa fracassada de golpe para derrubar o governo em 2019 começou depois que moradores suspeitos espalharam rumores de que o presidente estava morto e que um vídeo que ele postou na véspera de Ano Novo era um deepfake.

O professor Hancock era mais otimista, dizendo que acreditava que os humanos se adaptariam para identificar as diferenças. Até o fato de as pessoas já estarem alertando sobre o potencial de desinformação de imagens geradas por IA, disse ele, é um sinal positivo.

(The Wall Street Journal)

Sair da versão mobile