Publicado inicialmente a 17 de janeiro de 2025 em rekto:verso.
Por Seden Anlar e Maria Luís Fernandes. Tradução de Rita Azevedo | Voxeurop
A inteligência artificial (IA) já não é um conceito distante. Embora exista há décadas sob várias formas — desde a automação básica à aprendizagem automática avançada —, o seu desenvolvimento atingiu agora uma nova fronteira. Mais especificamente, nos últimos anos, a IA generativa, um tipo de IA que pode criar conteúdos originais, registou avanços significativos.
Um marco fundamental nesta evolução ocorreu em novembro de 2022 com o lançamento público do ChatGPT da OpenAI. Este chatbot tornou a IA generativa amplamente acessível ao público geral, permitindo aos utilizadores interagir e explorar as suas capacidades através de uma interface de conversação simples. Em agosto de 2024, o ChatGPT tinha mais de 200 milhões de utilizadores ativos semanais, o dobro do número que registou em novembro de 2022. Desde o lançamento popular do ChatGPT e de muitos outros bots e ferramentas semelhantes orientados para a IA, a IA enraizou-se profundamente na vida quotidiana, influenciando os mais diversos domínios, desde o entretenimento nas redes sociais à educação e à política.
Desinformação e IA generativa
Um domínio particularmente afetado pela IA generativa é o espaço informativo. A IA transformou fundamentalmente a forma como as notícias e os conteúdos são criados e distribuídos, introduzindo novos desafios à atual questão da desinformação. Com ferramentas de IA disponíveis gratuitamente e, em grande parte, não regulamentadas, tornou-se mais fácil do que nunca gerar e distribuir informações falsas e criar conteúdos falsos convincentes que se podem espalhar rapidamente pelas plataformas digitais.
As capacidades avançadas da IA generativa são evidentes na forma como consegue reproduzir de forma convincente a comunicação e o comportamento humanos. Conversámos com Juliane von Reppert-Bismarck, diretora-executiva e fundadora do Detetor de Mentiras [Lie Detectors], uma organização sem fins lucrativos orientada por jornalistas de toda a Europa cujo objetivo é ajudar adolescentes, pré-adolescentes e professores a distinguir factos de notícias falsas e a compreender o jornalismo ético. A jornalista deu um exemplo impressionante: “Basta pensar no caso recente de uma grande empresa de engenharia que, em maio de 2024, foi vítima de uma gigantesca fraude “deepfake”. Chegaram mesmo a transferir 20 milhões de libras para contas bancárias diferentes porque alguém se convenceu de que, durante uma videoconferência, estava a falar com pessoas reais. Mas não, tratava-se de seres fabricados por IA, que usavam vozes familiares. E isso levou-os a fazer a transferência”.
No entanto, mesmo quando usados com boas intenções, os sistemas de IA são propensos a erros. O ChatGPT e chatbots semelhantes avisam regularmente os utilizadores de que as suas respostas podem conter imprecisões. Além disso, estes sistemas são tão fiáveis quanto os dados com os quais são alimentados. Se os dados fornecidos refletirem preconceitos ou desigualdades sociais, o que normalmente acontece, os algoritmos de IA arriscam-se a perpetuar, ou até mesmo amplificar, esses preconceitos.
IA na redação
Esta preocupação torna-se particularmente acentuada no setor dos meios de comunicação social, onde a IA está a ser rapidamente integrada em vários aspetos da produção de notícias. Os conteúdos gerados por IA estão a alcançar cada vez mais pessoas, muitas vezes sem uma clara identificação ou orientações que os diferenciem do material criado por humanos. Esta falta de transparência suscita preocupkações significativas sobre a potencial utilização indevida da tecnologia e o seu impacto na confiança do público na informação. Uma das questões mais preocupantes é o fenómeno conhecido como “alucinações da IA”, em que a tecnologia gera informações falsas ou enganosas que parecem altamente credíveis. Estas alucinações podem ocorrer porque os sistemas de IA, embora sofisticados, carecem de uma verdadeira compreensão e podem criar imprecisões a partir dos dados com os quais foram alimentados. Por conseguinte, a ausência de uma identificação clara não só induz o público em erro, como também diminui a confiança em conteúdos legítimos, uma vez que o público tem dificuldade em distinguir a verdade da invenção.
A falta de transparência suscita preocupações significativas sobre a potencial utilização indevida da tecnologia e o seu impacto na confiança do público na informação.
Esses riscos são particularmente alarmantes em contextos como o jornalismo, a educação ou o discurso político, onde a exatidão é importante. Curiosamente, segundo o inquérito do Digital News Report relativo a 2024, o público parece estar menos preocupado com as histórias baseadas em IA relacionadas com o desporto e o entretenimento, onde os riscos são considerados menores.
Embora os editores de notícias reconheçam os potenciais benefícios da IA — em particular para automatizar tarefas de back-end como a transcrição, a revisão e os sistemas de recomendação — muitos ainda veem o seu envolvimento na criação de conteúdos como uma séria ameaça. Na realidade, receiam que o papel da IA na produção de artigos noticiosos, manchetes ou outros conteúdos editoriais, possa corromper ainda mais a confiança do público no jornalismo.
O papel da literacia mediática
Há já vários anos que a confiança do público na informação tem vindo a diminuir, exacerbada pela disseminação de notícias falsas nas plataformas de redes sociais. Este desgaste de confiança poderá agravar-se com a presença crescente da IA, especialmente em períodos eleitorais. Estão a surgir preocupações sobre a forma como estas novas tecnologias podem ser aproveitadas por campanhas políticas ou mesmo por intervenientes externos que procuram influenciar os resultados eleitorais.
O Gabinete de Jornalismo de Investigação [Bureau of Investigative Journalism] descobriu que essas táticas foram usadas para disseminar a desinformação russa antes das eleições deste ano no Reino Unido e em França. Além disso, o NewsGuard, um organismo de vigilância dos meios de comunicação social, registou um aumento de sítios Web com conteúdos gerados por IA, muitas vezes concebidos para se parecerem com meios de comunicação social legítimos, mas que divulgam informações falsas ou de baixa qualidade. Este aumento de conteúdos enganadores suscitou a preocupação dos especialistas, que alertam para o facto de poderem corromper ainda mais a confiança nos meios de comunicação social.
Além disso, na Eslováquia, por exemplo, surgiu uma gravação de áudio falsa de um candidato que alegadamente discutia a forma de manipular as eleições, poucos dias antes de uma votação muito disputada. Os verificadores de factos tiveram dificuldade em combater eficazmente a desinformação. Do mesmo modo, a cena política britânica assistiu ao seu primeiro grande incidente por “deepfake” em outubro de 2024, quando um clipe de áudio do líder da oposição, Keir Starmer, aparentemente a praguejar com os funcionários, se tornou viral no X (antigo Twitter). O clipe arrecadou milhões de visualizações, mesmo depois de ter sido desmascarado como falso.
O maior perigo pode não ser o facto de as pessoas acreditarem em informações falsas, mas sim o facto de deixarem de acreditar em qualquer coisa.
É provável que a confiança nos meios de comunicação social diminua ainda mais à medida que a IA se integra cada vez mais nas plataformas digitais. A investigação mostra que as pessoas recorrem frequentemente a imagens e vídeos como “atalhos mentais” para determinar aquilo em que confiam online, aderindo à noção de “ver para crer”. Com o aumento das imagens sintéticas e dos conteúdos manipulados por IA, a fiabilidade das provas visuais — há muito considerada uma pedra angular da confiança — está a ser cada vez mais posta em causa, conduzindo a uma maior inquietação e incerteza entre o público. Estes casos realçam a forma como os conteúdos gerados por IA podem ser aproveitados para disseminar a confusão e a desconfiança em momentos críticos.
No entanto, o maior perigo pode não ser o facto de as pessoas acreditarem em informações falsas, mas sim o facto de deixarem de acreditar em qualquer coisa. Como advertiu a filósofa política Hannah Arendt, em períodos de agitação, a ameaça mais significativa é quando “já ninguém acredita em nada”. Por conseguinte, este ceticismo crescente ameaça corroer as bases da democracia.
As consequências desta quebra de confiança são profundas. Como explicou Juliane, do Detetores de Mentiras, “a democracia baseia-se no pressuposto de que somos capazes de tomar decisões informadas. Por isso, a literacia mediática e as garantias que oferece para assegurar decisões informadas, e não decisões desinformadas, são absolutamente fundamentais para o processo democrático e para a nossa sociedade democrática”.
O desafio crescente para os jovens
Esta questão é especialmente crítica para os jovens, que são os mais expostos à esfera digital e às plataformas de redes sociais, onde a IA é cada vez mais predominante. Muitas vezes considerados como “nativos digitais”, os jovens interagem com a esfera online mais do que qualquer outro grupo.
Segundo o relatório do Reuters Institute relativo a 2024, as gerações mais jovens estão a mostrar uma ligação mais fraca às fontes de notícias tradicionais do que no passado, o que as torna ainda mais suscetíveis à desinformação. Com a redução da idade de voto para menos de 18 anos em países como a Bélgica, e tendo em conta que estes jovens irão moldar decisões políticas significativas e assumir papéis influentes na sociedade nas próximas décadas, é vital que os jovens compreendam como navegar no panorama da informação em rápida evolução.
Embora as organizações noticiosas estejam a envidar esforços para proteger a integridade da informação, adotando diretrizes para a utilização da IA, e plataformas de redes sociais como o X (antigo Twitter) e o TikTok estejam a introduzir medidas como notas da comunidade e a identificar conteúdos gerados por IA, subsiste uma questão crítica: será isto suficiente?
A solução frequentemente citada para esta preocupação crescente é a literacia mediática digital, que se refere à capacidade de avaliar criticamente e interagir com os conteúdos digitais, englobando um vasto conjunto de competências, que vão desde a identificação de fontes de informação credíveis até à compreensão da forma como os algoritmos e a IA moldam os conteúdos que consumimos. Envolve não só conhecimentos técnicos, mas também a capacidade de discernir entre informação precisa e desinformação e de se envolver de forma responsável em ambientes virtuais.
Embora as organizações noticiosas estejam a envidar esforços para proteger a integridade da informação através da adoção de orientações para a utilização da IA, subsiste uma questão crítica: será isto suficiente?
Mas será que os jovens têm, de facto, conhecimentos sobre os meios de comunicação digitais? O relatório de 2024 do Ofcom titulado “Crianças e pais: relatório sobre o uso dos meios de comunicação e comportamentos” fornece algumas informações sobre o que os jovens pensam sobre as suas próprias competências em matéria de literacia mediática digital. Quando inquiridos, 69 % dos adolescentes entre os 12 e os 17 anos afirmaram estar confiantes na sua capacidade de avaliar a autenticidade dos conteúdos online. No entanto, esta confiança era maior entre os rapazes e os adolescentes mais velhos. Nomeadamente, a confiança entre os jovens de 16-17 anos caiu de 82 % em 2022 para 75 % em 2024.
No entanto, como salientou Juliane von Reppert-Bismarck, do Detetor de Mentiras: “Perguntar aos jovens se pensam que têm literacia mediática não é uma forma eficaz de medir as suas capacidades reais de literacia mediática”. Na verdade, o relatório de 2024 do Ofcom sublinha que a confiança nem sempre está relacionada com as competências reais de literacia mediática. Este afirma que “a confiança não decorre apenas de boas competências de literacia mediática, mas interseta-se com ela de formas que podem reforçar ou prejudicar a compreensão crítica. Uma pessoa cuja confiança excede as suas capacidades tem mais probabilidades de cometer erros, o que pode causar danos. Por outro lado, uma pessoa com uma boa compreensão crítica, mas com falta de confiança pode não confiar no seu próprio julgamento, o que a pode fazer sentir-se insegura ou pouco segura online”.
Apesar de serem referidos como “nativos digitais”, a familiaridade dos jovens com a tecnologia não equivale automaticamente a fortes competências de literacia mediática digital. Safa Ghnaim, Diretora Associada do Programa da Tactical Tech, uma organização internacional sem fins lucrativos que se dedica a ajudar indivíduos e comunidades a lidar com os impactos sociais da tecnologia digital, salientou este equívoco:
Já ouvi termos como “nativo digital”, que implica que os jovens são fluentes em tecnologia porque cresceram com ela. Mas penso que, por vezes, se chega à conclusão de que também são bons a discernir a desinformação ou a detetar fraudes. Não é necessariamente esse o caso. Estas competências ainda precisam de ser ensinadas. Conduzimos uma investigação com adolescentes sobre as suas esperanças e receios relativamente à tecnologia e os resultados foram reveladores. Alguns manifestaram a sua preocupação com o desgaste das relações entre os seres humanos, mostrando a profundidade das suas ansiedades.
Independentemente do quadro aplicado, a literacia mediática digital é muito contextual. Um jovem na Alemanha não é o mesmo que um jovem em Portugal.
Helderyse Rendall, coordenadora sénior do projeto da Tactical Tech centrado nos jovens, What The Future Wants, faz eco deste sentimento: “A capacidade dos jovens para usar a tecnologia é muitas vezes confundida com uma compreensão mais profunda da forma como a tecnologia se cruza com as suas relações, comunidades e sociedade em geral. Estas são questões que precisam de ser exploradas e discutidas em ambientes onde possam refletir sobre as suas interações e os seus efeitos”.
Os dados confirmam esta preocupação. De acordo com um estudo da UE de 2022, um em cada três estudantes de 13 anos na Europa não possui competências digitais básicas quando diretamente testado. Além disso, a OCDE refere que apenas um pouco mais de metade dos jovens de 15 anos na UE aprenderam a detetar se a informação é subjetiva ou tendenciosa.
Iniciativas da UE em matéria de literacia mediática digital
Reconhecendo esta necessidade crescente, a União Europeia lançou várias iniciativas destinadas a promover a literacia mediática digital. No dia 1 de julho de 2020, foi publicada a Agenda de Competências para a Europa, que promove as competências digitais para todos e apoia os objetivos do Plano de Ação para a Educação Digital. Este plano visa melhorar as aptidões e competências digitais para a transformação digital e promover o desenvolvimento de um sistema de educação digital de alto desempenho. Além disso, o Plano de Ação “Bússola Digital” e o Plano de Ação sobre o Pilar Europeu dos Direitos Sociais estabelecem objetivos ambiciosos para a UE: garantir que, pelo menos, 80 % da população tenha competências digitais básicas e ter 20 milhões de especialistas em TIC até 2030.
Em outubro de 2022, a Comissão Europeia publicou as suas orientações para educadores sobre a promoção de competências digitais e o combate à desinformação nas escolas primárias e secundárias. Este conjunto de ferramentas abrange três tópicos principais: desenvolver a literacia digital, combater a desinformação e avaliar a literacia digital. Depois, em fevereiro de 2023, a Comissão publicou as Orientações em matéria de literacia mediática, que proporcionam um quadro para os Estados-Membros partilharem as melhores práticas e comunicarem os seus esforços em matéria de literacia mediática.
A situação da literacia mediática na Europa
No entanto, apesar destas orientações a nível da UE, em última análise, cabe a cada Estado-Membro e aos seus sistemas educativos nacionais implementarem-nas, uma vez que a Diretiva relativa aos Serviços de Comunicação Social Audiovisual (DSCAV) exige que os Estados-Membros promovam a literacia mediática e apresentem relatórios sobre os seus progressos a cada três anos. Como explica Helderyse Rendall: “A forma como se avaliam estas competências da UNESCO ou da União Europeia está bem documentada, mas a forma como isso se traduz em diferentes contextos é mais complicada. A investigação que publicámos no ano passado mostrou que, independentemente do quadro implementado, a literacia mediática digital é muito contextual. Um jovem na Alemanha não é o mesmo que um jovem em Portugal”.
Apesar destes desafios, há progressos, pelo menos a nível local e internacional. De acordo com Juliane, do Detetor de Mentiras: “Há muita atividade a nível da UE, da UNESCO e da OCDE. Do mesmo modo, destacam-se as iniciativas locais, com um número crescente de presidentes de câmara a colaborar ativamente mediante associações e a lançar iniciativas como as Semanas da Competência Digital, que se revelaram muito populares. No entanto, Juliane sublinhou a necessidade de ação a nível nacional: “O que falta é o meio-termo — a ação necessária dos governos nacionais e regionais. É daqui que virão as verdadeiras soluções. Dito isto, há exceções notáveis. Os países escandinavos, nomeadamente a Finlândia, são frequentemente considerados líderes em matéria de literacia mediática, enquanto a Áustria também deu grandes passos ao obrigar a que as competências digitais básicas sejam ensinadas como uma disciplina separada nas escolas.
Para além da educação formal, há uma necessidade crescente de iniciativas de educação não formal para ajudar a colmatar a lacuna. Como salienta Helderyse da Tactical Tech, muitas organizações estão a trabalhar para criar estruturas que apoiem os sistemas educativos no ensino da literacia mediática digital.
Safa, da Tactical Tech, acrescenta: “Há uma necessidade real de intervenções não formais, criativas e cocriativas como a nossa, que se centram no pensamento crítico e nas competências transversais. Estas são as competências que ajudam os jovens a compreender como funcionam os algoritmos, como funciona a recolha de dados e como funciona a IA. Embora os atuais sistemas de ensino tendam a focar-se nas aplicações práticas da tecnologia, como a programação ou a robótica, é importante ensiná-las juntamente com as competências de pensamento crítico”.
Autores:
Seden Anlar é uma jornalista, moderadora, apresentadora/produtora de podcasts e formadora sediada em Bruxelas. Escreve e conta histórias sobre questões intersetoriais relacionadas com o clima e a justiça social. Anteriormente, trabalhou com organizações de campanha política como a Climate Action Network (CAN) Europe, publicações políticas como o Green European Journal e produziu podcasts como Green Space para o Green Party of England and Wales e Changing the Table Podcast para o Migration Policy Group. Para colaborações, pode contactá-la através do LinkedIn.
Maria Luís Fernandes é uma profissional em matéria de política e meios de comunicação especializada em questões sociais, cívicas e políticas. Após trabalhar em várias organizações da sociedade civil em Bruxelas, atualmente contribui para o programa Europa Criativa na Comissão Europeia. Após concluir um LL.B. em Direito pela NOVA School of Law, concluiu um Mestrado em Comunicação e Media Digitais pela Universidade de Tilburg, onde investigou o tópico Desinformação. Tem interesse e escreve sobre artes e cultura, media e jornalismo, e igualdade e justiça social.
No próximo artigo desta série, Seden Anlar e Maria Luís Fernandes irão explorar as abordagens contrastantes da Bélgica e de Portugal, ouvindo diretamente professores e alunos de ambos os países para compreender as suas perspetivas sobre a literacia mediática e a educação em matéria de IA.