A manipulação de imagens não é algo novo, nem tão-pouco a manipulação da verdade. As técnicas de alteração de fotografias já andam a ser desenvolvidas desde o século XIX; nos seus anos mais paranoicos, Stalin ficou conhecido por mandar eliminar pessoas de fotografias (e não só, claro). O uso de fake news (as notícias falsas) como arma política tem sido recorrente, e feito de diversas maneiras por indivíduos ou organizações com intensões bem distintas: beneficiar ou denegrir candidatos em campanhas eleitorais, derrubar governos, vender produtos, lançar o caos. Nas redes sociais, as fotografias manipuladas estão por toda a parte, com influencers a editar os próprios corpos e anónimos a alterar contextos para criar memes satíricos.
O que mudou foi a facilidade com que tudo isto pode ser feito, bem como a perfeição que a ilusão consegue atingir. Estas são tecnologias de evolução extremamente rápida, estando cada vez menos restritas às mãos de profissionais – ou sequer às mãos de seres humanos. Os processos estão cada vez mais democratizados e automatizados e, por isso mesmo, mais perigosos. Adicionalmente, o facto de estarmos a falar da manipulação de vídeo muda tudo: como muitos especialistas explicam, o ser humano do século XXI vê o formato de vídeo como uma extensão natural da sua própria perceção do mundo – uma espécie de equivalente digital ao nosso sentido biológico. Da mesma forma, estamos biologicamente condicionados a acreditar no que confirma a nossa visão do mundo ou o que já acreditávamos ser verdade (algo a que a psicologia chama confirmation bias). Paralelamente, quem está habitado a circular pelos media, em particular pela Internet, já tem alguma noção de que fotografias podem ser facilmente alteradas, enquanto que o nível de perfeição a que as ferramentas de manipulação de vídeo estão a chegar ainda não é do conhecimento geral.
“Quando vamos ver um filme, por exemplo, há sempre uma certa suspensão de descrença a acontecer. Sabemos que o que estamos a ver que não é propriamente real, e já esperamos isso, faz parte do processo de aceitarmos essa ficção. Mas o complicado com as deepfakes é que, na maioria das vezes, quando as encontramos é online pelas redes sociais, não é num contexto como o do cinema, onde sabemos aceitar que algo é ficção e temos alguma compreensão das intenções dos criadores, versus que com deepfakes não sabemos nada disto”, diz Katie Duggan em chamada com o Gerador a partir de Nova Iorque. Katie é autora e investigadora na área dos estudos de cinema; em novembro, esteve na Universidade do Porto para apresentar a comunicação Shapeshifting Faces of Reality: The Beguiling Manipulations of Deepfakes. “E como não há um contexto claro a ser fornecido”, continua, “se encontrarmos uma deepfake ‘in the wild’ online e este for suficientemente convincente, pensamos que é real. Não estamos a sentar-nos para ver uma longa-metragem de ficção, estamos apenas a passar tempo no Twitter ou no YouTube, logo não reconhecemos imediatamente como ficção. Então, há muitos debates éticos sobre deepfakes a decorrer. Como as regulamos? Atualmente, não existem leis de copyright destinadas a combater o uso de deepfakes. Como controlamos este tipo de desinformação?”
Quando começou a ser pensada no mundo académico, a tecnologia tinha como propósito ser usada para fins de registo histórico, de entretenimento ou em diversas outras aplicações práticas para complementar capacidades humanas. Claro que, como tem acontecido com todas as inovações tecnológicas ao longo da história, as ideias maliciosas rapidamente começaram a surgir por entre as boas intenções. A terminologia ‘deepfake’ tem correlação direta com o seu processo de criação – algoritmos de inteligência artificial (AI) de deep learning usados para criar artefactos falsos (fake) –, mas ficou manchada logo à nascença, ou desde que começou a ganhar popularidade entre entusiastas amadores.
O nome começou a ser usado em 2017 numa desde então banida comunidade da rede social Reddit (r/deepfakes), que tinha como objetivo a partilha de imagens e vídeos pornográficos; infelizmente, a situação não mudou muito desde então. A empresa de cibersegurança holandesa Deeptrace Labs desenvolveu um amplo estudo sobre deepfakes (a par de trabalho de pesquisa em programas de deteção das mesmas) e o relatório The state of deepfakes: landscape, threats, and impact, publicado em setembro de 2019, revela alguns dados alarmantes. Segundo a Deeptrace, 96% da totalidade destes vídeos falsos a circular pela Internet são, não de cariz político, como muitos temiam, mas de cariz pornográfico, criados a partir de vídeos de atrizes de filmes para adultos sobrepostos com rostos de celebridades ou de mulheres anónimas. Neste último caso, os vídeos são muitas vezes feitos a pedido de homens que as conhecem e que querem ver as suas fantasias tornadas realidade, sem qualquer tipo de consentimento ou conhecimento das mesmas, ou para efeitos de vingança ou chantagem. O mesmo relatório aponta que desde setembro de 2018 (ou seja, ao longo de um ano) o número de deepfakes a circular tinha duplicado; tendo em conta que já passaram mais de três anos desde este estudo, os números já serão substancialmente mais altos. Isto não significa, no entanto, que as deepfakes sejam omnipresentes, nem que toda a gente esteja a ser alvo destas tecnologias.
Generative Adversarial Networks
“Eu não tenho formação em programação, o que é parte do motivo pelo qual penso em tudo isto em termos mais simples, e acho que um dos aspetos mais interessante sobre as deepfakes é mesmo como se tornaram mais acessíveis às pessoas - mesmo para toda a gente que não tem experiência avançada em AI. A tecnologia tem evoluído para que seja mais fácil uma pessoa comum a começar a usar, mesmo que seja só em aplicações de redes sociais como o Snapchat com filtros de Face Swap”. Katie, que estuda deepfakes maioritariamente pelas perspetivas do cinema e do entretenimento, acrescenta que “parte da razão pela qual existe essa perceção de que as deepfakes são uma coisa muito assustadora é porque são frequentemente feitas com o objetivo de enganar. A intenção dos criadores é convencer o espectador de que o que está a ver ou ouvir é real, então, no fundo, a manipulação é indissociável das deepfakes”. Mas, afinal, o que são deepfakes?
“Deepfakes são media sintética que combina imagens, vídeos e sons reais com vozes ou imagens geradas por inteligência artificial”, simplifica Katie. “O tipo mais comum de deepfake é o de substituição facial, em que temos o rosto de uma pessoa e o corpo de outra, e a AI é usada para os combinar.” Existem outras variações de media sintéticas criadas por este tipo de inteligência artificial. É possível trabalhar vídeos existentes de forma a alterar apenas alguns aspetos da imagem. A digitalização total de um indivíduo, ‘animando-o’ de forma realista – como se de um cartoon se tratasse, mas sem que a manipulação digital seja percetível – também anda a ser testada. É até possível criar seres humanos que nunca foram humanos: seres digitais, rostos e corpos completamente únicos, criados a partir da análise de um número elevadíssimo de registos, de forma a que a inteligência artificial consiga analisar as suas caraterísticas e gerar imagens novas de indivíduos altamente realistas. O projeto This Person Does Not Exist foi criado com o objetivo de alertar para o nível de ilusão a que a AI está a chegar, e já há casos de ‘pessoas’ inteiramente digitais – os chamados sockpuppets - com presença na redes sociais e nos jornais, criadas com o objetivo de espalhar desinformação, conquistar adeptos para movimentos ou influenciar eleições.
Como é que tudo isto funciona? Filipa Castro é cientista de dados (atualmente trabalha na Continental) e explica ao Gerador o lado mais técnico das deepfakes. Para perceber a anatomia destes artefactos sintéticos é preciso algum contexto. “Deep learning é, de entre muitos outros, um método de machine learning”, e “machine learning consiste em ensinar uma máquina através de exemplos”. “Na programação ‘tradicional’, os seres humanos programam os computadores para realizar uma tarefa, através de um conjunto de instruções explícitas em código, como se de uma receita se tratasse. O aparecimento do machine learning criou um novo paradigma, no qual esta receita é criada de forma automática.” Desta forma, o “programador, em vez de escrever o código, alimenta o computador com exemplos”, sendo que o “computador vai aprender a tarefa a partir desses exemplos e autonomamente criar o código que é capaz de completar essa tarefa”. “Neste caso”, comenta ainda Filipa, “o código é muitas vezes referido como modelo”.
“Um programa baseado em machine learning será tão mais poderoso quantos mais dados tiver à disposição para a sua aprendizagem. Aqui entra o deep learning: um subcampo do machine learning no qual os modelos são compostos por muitas camadas sucessivas de transformações dos dados, que permitem a partir de um input chegar ao output desejado de forma automática. O nome deep advém do elevado número de camadas destes modelos, o que os torna profundos. Estes são modelos de machine learning particularmente poderosos em contextos em que existe uma grande quantidade de dados disponível para os ensinar.” Para ilustrar, a cientista estabelece um paralelo com o diagnóstico de exames médicos, sendo que nesse caso o input são as imagens de raios-X e o output será o diagnóstico médico.
Onde entram as deepfakes nisto? São uma das aplicações do deep learning, ou, mais precisamente, de um subcampo do deep learning: as Generative Adversarial Networks (Redes Generativas Adversariais, em português), mais conhecidas como GANs. “O conceito de GANs pressupõe dois componentes ou modelos: o gerador, que tem como tarefa gerar dados sintéticos realistas, por exemplo, imagens, e o discriminador, que tem como tarefa distinguir, neste caso, imagens sintéticas de imagens reais”, continua Filipa.
As GANs são um dos tipos de arquiteturas de redes neuronais profundas, precisamente por terem sido pensadas e desenhadas a partir das estruturas neuronais cerebrais, ainda que as GANs em específico se assemelhem também à lógica da biologia evolutiva. Assim, “os dois componentes são treinados para as suas tarefas em paralelo, numa espécie de competição que torna ambos mais capazes a cada iteração: o gerador tenta enganar o discriminador criando imagens cada vez mais realistas, enquanto que o discriminador se torna cada vez melhor a distinguir imagens sintéticas muito realistas de imagens efetivamente reais”. “Estes geradores”, conclui, “permitem criar deepfakes: imagens, vídeos ou áudios sintéticos, mas altamente realistas, de alguém a dizer ou fazer algo que nunca disse ou fez, ou de algum acontecimento que nunca ocorreu. O seu grau de desenvolvimento permite, na atualidade, gerar uma imagem ou vídeo falso de qualquer pessoa a partir de apenas algumas, ou mesmo só uma imagem dessa pessoa”.
É fácil perguntarmo-nos: mas o que torna as deepfakes diferentes de, por exemplo, imagens manipuladas com recurso a Photoshop ou efeitos especiais usados em Hollywood? Filipa Castro lembra que “as técnicas de manipulação de imagem tradicionais são normalmente implementadas por um ser humano, de forma manual e com recurso a softwares pagos e legislados”. “As GANs, por sua vez, permitem a geração de imagens sintéticas de forma automática, muito mais rápida e com recurso a software open source. O seu constante desenvolvimento torna os resultados mais realistas, superando, muitas vezes, o realismo de uma manipulação manual. Todos estes fatores tornam as deepfakes mais fáceis de disseminar.”
E em relação aos filtros usados nas redes sociais? A cientista explica que a complexidade dos algoritmos varia consoante o tipo de filtro. No nível mais simples estão, por exemplo, os de preto e branco: trata-se de programação tradicional, uma operação matemática “na qual os pixéis coloridos são transformados numa escala de cinzentos consoante a sua intensidade”. Nos filtros de animação facial “a adição de elementos estáticos ou dinâmicos à imagem ou vídeo original requer o reconhecimento de pontos de referência faciais, como o nariz e a boca”; pertencem, portanto, ao mundo do deep learning e têm pontos em comum com as deepfakes, mas ainda não se trata de GANs. Já os “filtros ‘generativos’, como o deoldify, o incolor ou o AI Time Machine são, muito provavelmente, baseados em GANs, tal como as deepfakes. O que difere entre os filtros é a tarefa para a qual são treinados: envelhecer uma fotografia, colori-la ou transferir a nossa cara para um estilo ou corpo diferente. No final de contas, podemos considerar todos estes exemplos como variações de deepfakes porque, de facto, criam imagens sintéticas realistas”. Outros exemplos que se podem ainda referir são as selfies geradas por AI que têm invadido as redes sociais nas últimas semanas – serviços como a Astria, o DrawAnyone, o Facetune, a Vana ou a referida AI Time Machine da MyHeritage.
A ponta do icebergue
“Existe o potencial para algumas destas tecnologias serem usadas de maneiras não maliciosas, desde que sejam claramente sinalizadas como parte de um empreendimento artístico ou algum tipo de peça fictícia.” Katie Duggan explica que a tecnologia já tem vindo a ser bastante usada nos mundos do entretenimento e do marketing, comentando que “deepfakes são aquele tipo de tecnologia que é subtil e que já está muito mais difundida do que as pessoas possam pensar”, e que é possível que no futuro os artefactos sintéticos comecem a “substituir os seres humanos na indústria audiovisual”.
Há deepfakes em anúncios publicitários, como a campanha da Just Eat com o músico Snoop Dogg que a empresa Synthesia transformou numa campanha para a Menulog (a subsidiária australiana), ou a aplicação que a Lay’s lançou no ano passado que permitia aos fãs de Lionel Messi criar mensagens personalizadas do jogador em várias línguas. Esta é, sem dúvida, uma das melhores aplicações da síntese de voz: a capacidade de permitir que qualquer pessoa grave mensagens em qualquer língua sem necessitar de a aprender. No mundo da comédia, as deepfakes ganham cada vez mais destaque; tanto incorporadas nos próprios programas como feitas por amadores e disseminadas pelas redes sociais, as aplicações da inteligência artificial para fins satíricos e cómicos são infindáveis. “E vemos muitos exemplos daqueles feitos com políticos, como Hilary Clinton ou Vladimir Putin, onde alguém os imita e quando o espectador se depara com o deepfake parece que as figuras políticas reais estão mesmo a dizer essas coisas absurdas e satíricas.” A investigadora lembra ainda que “também há quem intencionalmente deixe bem claro que os vídeos são, de facto, deepfakes. São feitos quase para mostrar a habilidade técnica do criador, então existe uma incompatibilidade intencional, como um corpo e uma voz obviamente femininos com o rosto de uma celebridade masculina”. Os criadores de South Park, por exemplo, lançaram em 2020 uma mini websérie satírica, chamada Sassy Justice, feita inteiramente com deepfakes.
No cinema e nos videojogos, as deepfakes estão a ser usadas de várias maneiras, muitas vezes “com a atuação de atores ou duplos, em combinação com CGI, VFX e outras tecnologias de efeitos especiais”. “Existem várias formas de tecnologia antienvelhecimento que estão a ser usadas, tal como vimos em Star Wars, onde também se estão a recriar digitalmente atores que já morreram. E também vimos casos como o do ator Bruce Willis, que não pode continuar a trabalhar devido à perda de parte de sua capacidade de fala, e pode ou não ter cedido a sua imagem (ainda ninguém sabe bem ao certo).” No programa America’s Got Talent, os júris apareceram a cantar com um Elvis Presley ressuscitado. A série documental The Andy Warhol Diaries é narrada pela voz do próprio, que foi sintetizada pela equipa da Netflix a partir dos arquivos da Andy Warhol Foundation. Na série NCSI: Los Angeles, as deepfakes chegaram a fazer parte da própria narrativa, com um vídeo falso do agente G. Callen a provocar o caos. Em 2019, o pioneiro do mundo da tecnologia Hao Li previa que a inteligência artificial iria começar a criar deepfakes “perfeitamente reais” num futuro bem próximo; no início deste ano, o videoclipe da música “The Heart Part 5” de Kendrick Lamar apresenta o músico a metamorfosear-se em diversas outras figuras públicas com uma mestria impressionante. E, claro, a célebre animação da Mona Lisa que surpreendeu a Internet em 2019.
As deepfakes também estão a ser usadas para fins mais ‘sérios’. Na campanha de consciencialização Malaria Must Die, David Beckman fala em nove línguas. Para o documentário Welcome to Chechnya, David France conseguiu encontrar uma solução para proteger as identidades dos participantes (pessoas LGBT+ perseguidas pelo governo unicamente por serem quem são) sem perder a empatia que, na sua opinião, apenas se consegue ao ter um rosto humano a contar a sua história: deepfakes. Numa campanha de 2020 da ONG Change the Ref, Joaquin Oliver, vítima do massacre de Parkland, apela ao fim da violência armada e ao voto nas que seriam as primeiras eleições presidenciais em que poderia votar se fosse vivo. A Shoah Foundation da University of Southern California, numa corrida contra o tempo para preservar o maior número possível de testemunhos de sobreviventes do Holocausto, desenvolveu um projeto que permite a interação em tempo real com algumas destas pessoas. Supasorn Suwajanakorn, cientista envolvido neste projeto, também sugere a utilização de deepfakes para a criação e difusão ampla de imagens de figuras que, por diversos motivos (cientistas, ativistas, filósofos, líderes), foram importantes para a evolução da humanidade. A interação com familiares falecidos, por muito estranha que pareça, também está a ser testada para permitir conhecer antepassados ou oferecer algum conforto a quem os perdeu recentemente. Na investigação criminal, a utilização de deepfakes está a ser estudada para ajudar a identificar suspeitos e para criar retratos com a idade atual de pessoas desaparecidas.
Filipa Castro explica que as deepfakes em si não representam uma revolução tecnológica; a revolução pertence às GANs, “um novo marco no mundo da inteligência artificial, que abre a porta para infinitas aplicações”. “De forma geral, a geração ou simulação automática de imagens nos mais diversos contextos e domínios é uma grande vantagem, pois permite enriquecer as bases de dados usadas para treinar métodos de deep learning, nomeadamente em aplicações como condução autónoma, onde a diversidade de dados é crítica para o desenvolvimento de algoritmos robustos. Entre outros, na área da medicina, as GANs são usadas para fazer coroas de dentes personalizadas ou investigar novas moléculas e fármacos.”
Ainda assim, “os riscos potenciais, e a desinformação e a desconfiança que se pode gerar entre o público começam a superar alguns dos benefícios que obtemos com a tecnologia das deepfakes”. “Pessoalmente, acho impossível falar sobre essas coisas sem reconhecer que elas têm tanto de fascinante como de assustador”, admite Katie Duggan. Giovanna Faso trabalha em cibersegurança (atualmente é vice-presidente de operações de engenharia na Dashlane e, tal como Filipa, é membro da plataforma Portuguese Women in Tech) e propõe que “qualquer deepfake que transpire sua falsidade pode ser considerado uma forma de arte”, e, portanto, todos os tipos de deepfakes que não tenham a intenção de manipular não deviam ser considerados deepfakes a 100%. Na sua opinião, “as intenções em torno da deepfake desempenham um grande papel em quão nefasto é esse deepfake” – categorizando, por exemplo, vídeos falsos criados com o intuito de manipular ou espalhar desinformação como deepfakes e vídeos falsos produzidos com propósitos criativos ou experimentais como criações dentro do enorme mundo da arte gerada por inteligência artificial (a AI art).
O icebergue submerso: corpos femininos como alvos principais
“As mulheres foram as mais afetadas pela criação de deepfakes, porque se viram a perder o controlo de suas próprias imagens e representação”, explica Giovanna, e acrescenta que “a maioria das deepfakes hoje em dia é criada para entretenimento adulto”. O relatório da Deeptrace de 2019 apontava que, dos tais 96% de deepfakes pornográficos, 100% eram de mulheres; os homens apenas surgem nos outros 4%, em vídeos satíricos, políticos ou cómicos pelo YouTube e outras redes sociais. Infelizmente, já todos ouvimos falar de revenge porn, “a intimidade de dois que acaba espalhada pela Internet”, mas este é um tipo de abuso completamente diferente.
O caso de Noelle Martin é dos mais conhecidos: uma jovem australiana de 17 anos completamente comum, que viu a sua vida virada do avesso quando descobriu fotografias e vídeos pornográficos que nunca lhe passaram pelas mãos a circular pela Internet. O que se seguiu foram anos de tortura e de luta legal, a receber emails com exigências e tentativas de extorsão, a contactar indivíduos anónimos para tentar retirar as deepfakes com o seu rosto de websites, a chamar a atenção nos órgãos de comunicação social para o que estava a acontecer e receber ainda mais ataques por isso, e a trabalhar para passar legislação contra a partilha de imagens íntimas. A atriz Kristen Bell é outra mulher que foi alvo da partilha de deepfakes com a sua cara; numa entrevista com a Vox, explica que ficou “completamente chocada. Porque esta é a minha cara, é minha! Andamos a ter este debate gigantesco sobre consentimento, e eu não consinto. E é por isso que não isto não é OK. Mesmo que seja rotulado como ‘não é realmente ela’, é difícil pensar nisso. Eu só gostava que a Internet fosse um pouco mais responsável e um pouco mais gentil”.
Katie Duggan salienta que tudo isto “levanta muitas questões sobre identidade, especialmente para celebridades e estrelas de Hollywood”. “Mas isso também foi algo que sempre achei particularmente interessante”, comenta, “porque as deepfakes são perigosos para todos, podem ser usadas com pessoas comuns. Mas as deepfakes amadoras de celebridades são bastante comuns, e levantam questões de ética, identidade e propriedade. São pessoas que estão a ser essencialmente manipuladas por indivíduos, e é quase como se as pessoas pensassem que as celebridades não têm qualquer tipo de poder sobre os seus próprios corpos em virtude de serem celebridades”.
Entre casos denunciados e a imensidão que fica por denunciar, é impossível estimar quantas mulheres estarão a ser vítimas deste tipo de ataque; ainda não há estudos exatos, mas quando existirem, os números serão presumivelmente assustadores. Apenas a título de exemplo, em outubro de 2020 foi denunciado que um “bot de pornografia deepfake” estava a ser hospedado na aplicação de conversação Telegram; em muito pouco tempo, mais de 100 mil imagens estavam a circular em canais públicos da aplicação, para não falar dos outros milhares que estariam a circular em canais privados. A maior parte das imagens eram de mulheres ‘comuns’, não de celebridades, e muitas eram de menores de idade. As tais democratização e automatização do processo de criação de deepfakes são o principal problema: para quem tem algum conhecimento em programação e capacidade computacional para tal, é bastante fácil criar um deepfake minimamente convincente; para quem não tem, pode pagar os serviços de empresas que o fazem por si. É possível pagar por cursos, ou contratar artistas de deepfakes com comissões baratas. Em 2019, chegou-se ao ponto de ser lançada uma aplicação, a DeepNude, que permitia a criação de imagens pornográficas a partir de apenas algumas fotografias; a inteligência artificial tinha sido especificamente treinada com imagens de corpos femininos, portanto só tinha capacidade para ‘despir’ mulheres.
O icebergue submerso: fraude e desinformação
Os usos maliciosos de deepfakes não se limitam à pornografia. Tal como aconteceu a Noelle Martin, a criação de imagens pode passar para tentativa de extorsão, quer sejam as imagens de cariz sexual ou de qualquer outro tipo; afinal, quando se está disposto a destruir a vida de alguém, o céu parece ser o limite. Em 2019, o CEO de uma empresa de energia inglesa recebeu um áudio falso de um colega e foi extorquido em 220 mil euros. Nos Estados Unidos, uma fraude parecida terá custado 10 milhões de dólares a uma empresa. Giovanna Faso comenta: “imagina um mundo onde não apenas temos de nos preocupar com notícias falsas, mas também de duvidar do que os nossos próprios olhos veem. As pessoas podem-se ver a ser responsabilizadas por crimes que não cometeram, apenas porque um deepfake indica a ocorrência de um ato criminoso. À medida que o público vai aceitando a ideia de que nem tudo o que vê é autêntico, os governos vão ter de começar a pensar em políticas e redes de segurança para proteger os mais vulneráveis.”
Também Filipa Castro aponta para estes perigos. A nível de implicações políticas, “adversários políticos, ou indivíduos motivados politicamente podem gerar e proliferar vídeos falsos de candidatos ou outras figuras públicas, no sentido de influenciar a opinião pública”. A desinformação e as fake news são óbvias; “imagens ou vídeos podem ser gerados para suportar notícias falsas”. Isto aconteceu mal a Rússia invadiu a Ucrânia, com um deepfake publicado num website de notícias ucraniano por hackers onde Volodymyr Zelensky se rendia e pedia aos seus soldados para pousarem as armas. E já em 2020 a proliferação de deepfakes tinha espalhado o caos nas eleições para a Assembleia Legislativa indiana, com vídeos falsos a serem distribuídos por 5,800 grupos de WhatsApp e a chegar a cerca de 15 milhões de pessoas. A desacreditação é outro risco, “a falta de confiança nos elementos media divulgados pode levar o público a questionar a veracidade de imagens e vídeos autênticos”.
“Alguns dos grandes problemas com deepfakes, sejam conteúdos feitos em contexto artístico ou em contexto político, são as questões de desinformação e de confiança. As pessoas precisam de ser cuidadosas e perspicazes quando encontram imagens online. Mas tudo isto também nos faz começar a desconfiar até das imagens que são reais. E quanto mais difundida e comum for a falsidade, apenas se torna cada vez mais difícil discernir o real do irreal”, aponta Katie Duggan.
*Esta reportagem foi inicialmente publicada a 19 de dezembro de 2022.