fbpx
Apoia o Gerador na construção de uma sociedade mais criativa, crítica e participativa. Descobre aqui como.

Deepfakes: desafio de deteção, proteção e regulamentação

Geradas por inteligência artificial, as deepfakes são artefactos digitais sintéticos; combinando imagens, vídeos e sons reais com conteúdos artificiais, a manipulação é muitas vezes impercetível. As suas aplicações vão desde o entretenimento à manipulação de eleições, tendo como alvo tanto figuras públicas como cidadãos anónimos. Não fazendo ainda parte do léxico comum, estão consideravelmente mais espalhadas do que se possa imaginar, mas o alarmismo é apontado como mais perigoso do que a tecnologia em si.

Texto de Redação

Ilustração de Marina Mota

Apoia o Gerador na construção de uma sociedade mais criativa, crítica e participativa. Descobre aqui como.

A democratização e a automatização do processo de criação de deepfakes são um grande problema: qualquer pessoa pode ter acesso tanto à tecnologia como ao material base a utilizar, dado que os códigos são maioritariamente open source e, com a digitalização progressiva da sociedade, cada um de nós tem uma base de dados visual disponível online. Estes algoritmos de inteligência artificial de deep learning evoluem de forma tão rápida que às vezes é difícil para os próprios programadores acompanhar e perceber na totalidade o que está a acontecer a todo o momento; como é que governos e legislação podem ter hipótese de se manter a par e responder às necessidades? Para além disso, as “tecnologias emergentes nem sempre são desenvolvidas com preocupações de segurança”, como refere o último boletim do Observatório do Centro Nacional de Cibersegurança, e a “cibersegurança tornou-se demasiadas vezes uma solução que surge depois da experiência de insegurança ocorrer e mostrar as vulnerabilidades dos sistemas.”

O jogo do gato e do rato

Como se distingue uma imagem real de uma imagem sintética? O caráter adversativo destes modelos torna a deteção e controlo de deepfakes num verdadeiro jogo do gato e do rato – ou uma “pescada de rabo na boca”, como diz Filipa Castro, cientista de dados, ao Gerador. “Visto que tanto a geração de deepfakes como a sua deteção são baseadas na mesma tecnologia, um avanço ou melhoria nos métodos de deteção de deepfakes vai conduzir a uma melhoria nos métodos que geram essas deepfakes, e vice-versa. Quando surgiram as primeiras deepfakes, era possível para um ser humano identificar alguns padrões comuns e indicadores da falsidade em vídeos, como ausência do ato de pestanejar, decorrente do desafio que é animar um vídeo a partir de imagens; incoerências na definição das fronteiras de certos elementos, como o cabelo ou a pele; iluminação pouco natural; dessincronização entre o áudio e o movimento dos lábios; incoerência em elementos de joalharia, por exemplo, brincos diferentes em cada orelha. No entanto, e como seria de esperar, a identificação destas fraquezas rapidamente contribuiu para o aparecimento de deepfakes mais realistas e sem estas incoerências.” Katie Duggan, investigadora, comenta com o Gerador que “às vezes o rosto não combina de forma perfeita, à volta dos olhos, das orelhas ou da boca. As coisas parecem estranhas. A pele pode ser anormalmente lisa ou algo inadequada. Essas são algumas pistas de que a imagem pode ter sido manipulada”.

Filipa Castro admite que a tarefa é cada vez mais difícil para os olhos dos seres humanos, o que tem levado “várias empresas, universidades e organizações governamentais a juntar forças para desenvolver soluções que permitam identificar deepfakes”. Um exemplo é a investigação desenvolvida pela DARPA (Agência de Projetos de Investigação Avançados de Defesa) americana, em conjunto com algumas das principais universidades do país. Outro “exemplo é o desafio lançado pelo Facebook, em conjunto com a Amazon e a Microsoft, com o objetivo de desenvolver tecnologia capaz de detetar imagens e vídeos gerados por computadores. Estes métodos, baseados em deep learning, tentam identificar padrões que, embora invisíveis ao olho humano, indicam a proveniência falsa de um certo conteúdo”. Alguns desses padrões são “pequenos blocos de imagem repetidos, blocos de imagem gerados por câmaras diferentes, diferenças ténues de contraste e artefactos deixados por softwares de edição de imagem”. Uma maneira de detetar uma videochamada de deepfakes, por exemplo, é pedir ao interlocutor para se virar de lado. A Intel anunciou no início de novembro que tinha desenvolvido com sucesso um novo detetor de deepfakes, que determina em milissegundos e com 96% de precisão se um vídeo é real ou não analisando o fluxo sanguíneo nos pixéis do rosto. Muitos investigadores acreditam que a única maneira de detetar deepfakes a longo prazo será desenvolver uma solução do tipo blockchain, com um registo descentralizado; no fundo, defendem que não é preciso detetar a falsidade, mas autenticar a veracidade, uma abordagem conhecida como media providence.

A legislação é muito incerta. Giovanna Faso, especialista em cibersegurança, acredita que “governos e think tanks devem exigir o envolvimento do mundo corporativo para colaborar em soluções e proteções. A tendência natural que vimos até agora é que os governos demoram a acompanhar as tecnologias com políticas, portanto, com mais colaboração, talvez possamos ver soluções mais frutíferas e sólidas”. Nos Estados Unidos, por exemplo, em setembro de 2019, foi aprovada uma lei no Texas que impedia a disseminação de deepfakes de alguma forma associadas a uma eleição a 30 dias da mesma; um mês depois, a Califórnia aprovou uma lei semelhante, mas o intervalo é de 60 dias. Em novembro de 2020, Nova Iorque aprovou uma lei que proíbe o uso de réplicas digitais de artistas em conteúdo audiovisual por 40 anos após a sua morte. No Reino Unido, está a ser trabalhada uma lei para impedir a partilha de deepfakes pornográficas sem consentimento. Em dezembro de 2018, a Comissão Europeia lançou o Plano de Ação contra a Desinformação para combater a vaga de notícias falsas que andava a varrer a Europa, e as deepfakes estão incluídas no rascunho de lei do Artificial Intelligence Act.

A maior parte das redes sociais já tem algum tipo de política de deteção e sinalização ou remoção de deepfakes, ainda que, tal como o Gerador investigou no início do ano, a moderação de conteúdos nas redes sociais seja um mundo cheio de zonas cinzentas. Se as redes sociais são novas o suficiente para a sua moderação ainda não ter conseguido acompanhar o ritmo de publicação (e todas as categorias de conteúdos a serem publicadas), as deepfakes ainda mais novas são, e mais difícil é o seu controlo. A rapidez impressionante com que a inteligência artificial evolui, dado que trabalha a uma velocidade inalcançável para o ser humano, torna tudo isto mais complicado. A regulação da inteligência artificial em geral é um desafio que tem ocupado governos e organizações, com cimeiras a decorrerem e relatórios a serem elaborados regularmente.

Em março de 2021, o FBI alertou que as deepfakes podem ser a próxima grande ameaça cibernética, não apenas no contexto de desinformação política, mas como uma arma a ser usada em contexto empresarial. A ENISA (a Agência da UE para a Cibersegurança) apresentou a 11 de novembro os resultados de um estudo onde identifica (ou prevê) as principais ameaças à cibersegurança emergentes para 2030. Em segundo lugar surgem “campanhas de desinformação avançadas”, com “ataques de deepfakes que podem manipular comunidades com razões (geo)políticas ou para ganhos monetários”, e em décimo figura o “abuso de inteligência artificial”, sendo que “a manipulação de algoritmos de IA e o treinamento de dados pode ser usada para aperfeiçoar atividades nefastas, como a criação de desinformação e conteúdo falso, exploração de preconceitos, armazenamento de biométricas e outros dados confidenciais, robôs militares e contaminação de dados”.

Giovanna Faso relembra ao Gerador que as “deepfakes são o resultado de anos de modelos de AI [artificial intelligence] a serem treinados para reconhecer o mundo que nos rodeia” – para o bem e para o mal. “Todo o progresso tecnológico vem com os seus senãos, acontece com todas as tecnologias a que temos acesso. As pessoas precisam de estar atentas a como os seus dados e as suas imagens estão a ser usados. Não sei o que vai acontecer a seguir, mas tenho a certeza de que o nosso apetite por progresso não vai parar aqui.” Aponta ainda outras grandes ameaças atuais à cibersegurança internacional: “guerras cibernéticas entre países”, como a que estamos a assistir entre a Ucrânia e a Rússia, “perseguição cibernética de pessoas vulneráveis, ataques de ransomware, personificação via autenticação multi-factor e uso de dados não consentido”.

A cibersegurança em Portugal

A nível nacional, o Centro Nacional de Cibersegurança (CNCS), explica ao Gerador que é “possível encontrar dados sobre os incidentes no ciberespaço de interesse nacional registados pelo CERT.PT (equipa de resposta a incidentes integrante do CNCS), assim como os indicadores de cibercrime, ocorridos em 2021, no Relatório Riscos e Conflitos de 2022 do Observatório de Cibersegurança do CNCS”. O relatório relativo a 2022 deverá estar pronto ao longo dos próximos meses. “Em paralelo aos incidentes de cibersegurança existem os registos de cibercrime. Nem sempre os primeiros resultam nos segundos, mas, em princípio, existe um potencial cibercrime num incidente de cibersegurança e vice-versa”, é indicado no relatório – no capítulo onde se analisam “os dados disponibilizados pela Direção Geral da Política de Justiça (DGPJ) sobre crimes participados, condenações e arguidos; os números sobre as denúncias ao Gabinete Cibercrime da Procuradoria-Geral da República (PGR); e as estatísticas da Linha Internet Segura (LIS) da Associação Portuguesa de Apoio à Vítima (APAV)”.

No documento não figuram as deepfakes em específico, mas é de referir que o “CERT.PT registou um aumento de 26% no número de incidentes de cibersegurança em 2021 comparando com 2020” e que a “sextortion (30% dos casos), a burla (12%) e o furto de identidade (8%) foram os crimes e outras formas de violência mais registados na dimensão Helpline da Linha Internet Segura em 2021 (APAV)”. Ainda, “os tipos de ciberameaças efetivamente mais relevantes em Portugal em 2021 são o phishing/smishing/vishing, o ransomware, a fraude/burla online, o comprometimento de contas ou tentativa e a exploração de vulnerabilidades”. Para clarificação, o relatório inclui uma secção onde se esclarecem termos; sextortion é uma tentativa de extorsão em que se tenta forçar alguém a pagar resgates ou a realizar atos sexuais com a ameaça de publicação de dados de natureza íntima (sendo que muitas vezes o atacante apenas afirma ter imagens, não as tendo efetivamente). Phishing trata-se de um “mecanismo de elaboração de mensagens que usam técnicas de engenharia social de modo que o alvo seja ludibriado”, enviando os atacantes emails ou mensagens com o objetivo de que os alvos “abram anexos maliciosos, cliquem em URL inseguros, revelem as suas credenciais através de páginas de phishing aparentemente legítimas [pharming], façam transferências de dinheiro”; smishing segue a mesma lógica, mas é feito através de mensagens de texto (SMS) e vishing através de mensagens de voz ou chamadas telefónicas. Já um ataque de ransomware implica a introdução clandestina de um software malicioso (malware) num sistema, permitindo aos atacantes ter acesso a “ficheiros e/ou dispositivos de uma vítima, bloqueando a possibilidade de esta poder aceder-lhes. Para a recuperação dos ficheiros, é exigido ao proprietário um resgate”.

A inteligência artificial apenas surge no documento como uma das “tecnologias emergentes que representaram um desafio maior para a cibersegurança, em 2021 e perspetivando” que tal se mantivesse nos anos seguintes. No entanto, o Observatório de Cibersegurança do CNCS divulgou um boletim em dezembro “dedicado ao tema da inteligência artificial no contexto da cibersegurança”, aponta o Centro Nacional de Cibersegurança, “nomeadamente a sua utilização por agentes de ameaça, mas também pelos profissionais de cibersegurança”. Neste documento já surgem as deepfakes, referidas como um agente de ameaça que é criado para a “realização de fraudes ou em desinformação”.

O representante do CNCS acrescenta que “tudo o que é do âmbito criminal é da responsabilidade da Polícia Judiciária e do Gabinete Cibercrime da Procuradoria-Geral da República”. Rogério Bravo, Inspetor-Chefe da Unidade Nacional de Combate ao Cibercrime e à Criminalidade Tecnológica (UNC3T) da Polícia Judiciária, confirmou ao Gerador que não há registo de ocorrências de crime que envolvam deepfakes em Portugal; “deepfakes só as internacionais ligadas à Guerra. Em Portugal não tenho conhecimento”.

O boletim refere ainda que, “não obstante estas questões, a IA [inteligência artificial] é cada vez mais utilizada como solução de cibersegurança. Uma das capacidades que a IA tem, na medida em que é suportada em machine learning (aprendizagem automática), é a de identificar incidentes num sistema, tendo em conta aquilo que aprendeu recorrendo aos dados disponíveis. Esta capacidade permite, por exemplo, detetar intrusões com base nos dados que são fornecidos ao algoritmo de machine learning”. “A longo prazo, há quem defenda que a IA pode trazer mais benefícios para a defesa do ciberespaço do que para o ataque”, acrescenta-se.

A Estratégia Nacional de Ciberdefesa (ENC) foi aprovada a 20 de outubro do ano passado pelo Conselho de Ministros. No quinto eixo de desenvolvimento da ciberdefesa, o documento refere que os “agentes de ameaça no domínio do ciberespaço podem ter como veículo as tecnologias emergentes e disruptivas, da supercomputação, da robótica e da inteligência artificial, sendo fundamental o desenvolvimento das melhores ferramentas e capacidades para as contrariar, nomeadamente através de parcerias com centros de investigação e desenvolvimento, universidades e empresas”. Assim, a “sensibilização e a capitalização do conhecimento nacional e dos cidadãos nesta área assumem especial importância para uma maior segurança no ciberespaço, autonomia tecnológica e formulação de doutrina, políticas, normas e procedimentos indispensáveis a este novo domínio de operações, assumindo o Instituto da Defesa Nacional um papel fundamental a esse respeito”.

“Pensando no Sul da Europa, e mais especificamente em Portugal, é fundamental ter consciência do quanto a literacia digital pode ajudar”, defende Giovanna Faso. E como é que as pessoas se podem proteger, tanto a nível de prevenção como de controlo de danos, caso chegue ao ponto de chantagem ou exposição pública? “Como forma de proteção, o que sugerimos é que as pessoas usem um gerenciador de senhas. A grande maioria dos crimes de dados é cometida por meio de vulnerabilidades de palavras-passe. Ainda assim, existem situações em que as imagens estão a ser usadas para a criação de pornografia sem qualquer consentimento do proprietário e, nesse caso, sugerimos sempre entrar em contato com quem as publicou. Claro que isso é sempre mais fácil dizer do que fazer, e o processo de remoção de conteúdo pode ser árduo. Por esse motivo, sugerimos que as pessoas se concentrem em três coisas que podem controlar: ter consciência de quando estão a partilhar dados pessoais, ter muito cuidado com as suas palavras-passe e excluir tudo o que seja contas e assinaturas que não estejam a ser usadas.”

O website do CNCS tem uma secção exclusivamente dedicada a ‘Boas Práticas’, com todo o tipo de alertas e recomendações, bem como sensibilização para a prevenção e para como proceder caso se seja um alvo. Relativamente às “novas ameaças no ciberespaço, como as deepfakes e alguns usos da inteligência artificial”, o Centro Nacional de Cibersegurança tem algumas indicações: “qualquer pedido com relevância que receba em vídeo ou som deve ser confirmado através de canais alternativos, principalmente fontes oficiais, de modo a validar a veracidade do mesmo; estar atento a mensagens com erros formais de linguagem e procurar incorreções na imagem ou no som e contradições; avaliar sempre, em termos de contexto, a oportunidade dos conteúdos de emails, de mensagens instantâneas ou de telefonemas; quando se é contactado, confirmar a veracidade do endereço de email, do perfil ou do número de telefone de origem; não clicar em anexos ou links de emails suspeitos”.

Uma “revolução de paradigma”

É importante lembrar, como todos os cientistas fazem, que a tecnologia nunca é inerentemente má nem boa – é neutra. A responsabilidade pelos usos que lhe são dados recai sobre os seres humanos em todas as instâncias, quer sejam esses usos feitos com boas ou más intenções. Da mesma forma, o grande perigo não está na difusão das deepfakes por si só, mas na maneira como reagimos a ela enquanto sociedade.

No programa 60 Minutes, Nina Schick – consultora política e autora do primeiro livro sobre deepfakes – explica o conceito ‘the liar’s dividend’. “À medida que as pessoas se apercebem da existência de deepfakes, de que até vídeos podem ser falsificados, começam a perder a confiança em todas as media autênticas, e esse é um conceito conhecido como ‘the liar’s dividend: se tudo pode ser falsificado, nada é real; se tudo pode ser falsificado, então tudo pode ser negado.” Exemplos disto são a técnica usada por Donald Trump de negação constante, inclusive a negação de afirmações que ele próprio fez. Em 2020, uma candidata à Câmara dos Representantes pelo Partido Republicano até publicou um relatório de 23 páginas em que defendia que os vídeos do assassinato de George Floyd, que provocaram a maior onda de protestos de sempre do movimento Black Lives Matter, eram deepfakes.

“É absolutamente assustador”, admite Nina Schick, “e eu acho que um dos desafios mais importantes que a sociedade vai enfrentar daqui para frente é encontrar maneiras pelas quais possamos salvaguardar o nosso ecossistema de informações. Temos de pensar em como construir algum tipo de segurança, para que possamos garantir algum grau de confiança em todo o conteúdo digital com que interagimos diariamente. Porque se não o fizermos, qualquer ideia de uma realidade compartilhada desaparece, e qualquer conteúdo com o qual interagimos fica sujeito à perceção de cada pessoa sobre como o interpretar.” Numa TedTalk de março do ano passado, defende ainda que “estamos a entrar numa era de profundas mudanças provocadas pela tecnologia e, sem dúvida, vamos passar por mais mudanças na duração de uma vida do que toda a humanidade que veio antes de nós. E a única forma de nos prepararmos para esse período de mudança é começar a entender a enormidade da revolução de paradigma que está em curso”.

Num mundo já habituado às notícias falsas e numa era a que muitos já apelidam ‘pós-verdade’, será que estamos a perder de vista o que é real e o que é verdadeiro? Ou, pelo contrário, devemos encarar estas novas realidades com normalidade, como uma evolução natural, como algo que não anula o que é a verdade precisamente por ser passível de verificação e autenticação? Filipa Castro responde que “tal como acontece com as fake news, as deepfakes são uma realidade inegável, um novo normal. A verificação e autenticação de conteúdo ainda não é uma tarefa trivial, ainda carece de muito desenvolvimento e, portanto, não podemos estar totalmente descansados nem ser passivos no absorver de informação. A resposta, a meu ver, passa por nos prepararmos o melhor possível para os seus perigos, sem alarmismos: aumentar a nossa literacia tecnológica, manter uma atitude crítica, utilizar fontes credíveis e utilizar as ferramentas disponíveis para discernir acerca da autenticidade da informação que nos chega”.

Katie Duggan admite que “é assustadora a maneira como as pessoas se deixam convencer por tudo o que veem. Mesmo coisas que achamos impossível alguém acreditar serem reais, há sempre quem esteja disposto a acreditar. E quando as pessoas veem deepfakes – se forem suficientemente convincentes, claro – acho que a inclinação é para acreditarem. E, naturalmente, tudo isto pode ter consequências terríveis para quem é chantageado – há quem tenha perdido o emprego, os relacionamentos pessoais, a reputação. É muito, muito difícil recuperar isso depois de a desinformação se espalhar” – tanto recuperar os vídeos em si como recuperar dos efeitos provocados pela sua difusão. “Se as pessoas não sabem que precisam de questionar o que veem, simplesmente aceitam as coisas. Espero que, à medida que a consciencialização sobre deepfakes aumenta, mais pessoas estejam equipadas com a capacidade de se questionar destas novas formas.” O problema é que “é muito difícil de gerir isto, porque as pessoas precisam de se questionar, ou pelo menos estar atentas à possibilidade de desinformação, mas também não queremos que se chegue ao extremo de as pessoas desconfiarem de tudo. É difícil garantir que não se chegue a esse ponto. Queremos que as pessoas estejam cientes, mas não paranoicas e sem conseguirem confiar em nada nem ninguém.”

Claire Wardle, especialista em manipulação online, aponta o alarmismo, precisamente, como o maior perigo. Explica no The New York Times que “houve uma enorme explosão de ‘ó meu deus, não podemos confiar em nada’. Sim, as deepfakes são estranhamente distópicas, e só vão ficar mais realistas e mais baratas de fazer. Mas o pânico em torno delas é exagerado. Na verdade, o hype alarmista é possivelmente mais perigoso do que a própria tecnologia”. Aponta que a “weaponization of context” (no fundo, a manipulação de contextos consoante interesses próprios), ou shallowflakes, não é algo novo, e que nem é preciso “tecnologias de inteligência artificial para manipular emoções ou espalhar desinformação”: o conteúdo mais simples pode causar grandes danos.

Tal como Nina Schick, acredita que “o que realmente nos deve preocupar é o ‘liar’s dividend’: as mentiras e ações com as quais as pessoas se safam explorando o ceticismo generalizado em seu próprio benefício. Quando qualquer coisa pode ser falsa, torna-se muito mais fácil para os culpados descartar a verdade como falsa. O que realmente me mantém acordada à noite não é propriamente a tecnologia; é como nós, enquanto sociedade, respondemos à ideia de que não podemos confiar no que vemos ou ouvimos. É fácil perceber onde este caminho leva. À medida que a confiança do público em instituições como media, educação e eleições diminui, a própria democracia torna-se insustentável”. Aponta que as plataformas – as redes sociais em particular – “devem pensar muito seriamente sobre o que fazem com esse tipo de conteúdos” e que “o público tem de reconhecer a sua própria responsabilidade”, deixando um último conselho: “se não sabes com 100 % de certeza que algo é verdade, por favor não partilhes, porque não vale a pena o risco”.

*Esta reportagem foi inicialmente publicada a 1 de fevereiro de 2023.

Texto de Sofia Matos Silva

Publicidade

Se este artigo te interessou vale a pena espreitares estes também

19 Março 2024

O Teatrão: 30 anos de história, de novos desafios e de velhos problemas

19 Fevereiro 2024

Assistência sexual e a democratização do acesso ao corpo

14 Fevereiro 2024

Direito de resposta

14 Fevereiro 2024

Do Brasil até Portugal: uma “metamorfose ambulante”

12 Fevereiro 2024

Lenocínio simples: exploração ou autodeterminação?

5 Fevereiro 2024

Entre o reconhecimento e a abolição, prostituição mantém-se à margem 

29 Janeiro 2024

Entre o chicote e a massagem: como se define um trabalho sexual?

15 Janeiro 2024

Apesar dos esforços, arquivos digitais ainda deixam margem para dúvidas

8 Janeiro 2024

Das boas práticas aos problemas: como os órgãos de comunicação arquivam o seu trabalho?

1 Janeiro 2024

Arquivos de jornais históricos portugueses estão desmembrados e dispersos

Academia: cursos originais com especialistas de referência

30 JANEIRO A 15 FEVEREIRO 2024

Viver, trabalhar e investir no interior [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Planeamento na Comunicação Digital: da estratégia à execução [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Comunicação Cultural [online e presencial]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Iniciação à Língua Gestual Portuguesa [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Soluções Criativas para Gestão de Organizações e Projetos [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Introdução à Produção Musical para Audiovisuais [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Jornalismo e Crítica Musical [online ou presencial]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

O Parlamento Europeu: funções, composição e desafios [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Iniciação ao vídeo – filma, corta e edita [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Fundos Europeus para as Artes e Cultura I – da Ideia ao Projeto

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Práticas de Escrita [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Pensamento Crítico [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Planeamento na Produção de Eventos Culturais [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Narrativas animadas – iniciação à animação de personagens [online]

Duração: 15h

Formato: Online

Investigações: conhece as nossas principais reportagens, feitas de jornalismo lento

22 ABRIL 2024

A Madrinha: a correspondente que “marchou” na retaguarda da guerra

Ao longo de 15 anos, a troca de cartas integrava uma estratégia muito clara: legitimar a guerra. Mais conhecidas por madrinhas, alimentaram um programa oficioso, que partiu de um conceito apropriado pelo Estado Novo: mulheres a integrar o esforço nacional ao se corresponderem com militares na frente de combate.

Saber mais

1 ABRIL 2024

Abuso de poder no ensino superior em Portugal

As práticas de assédio moral e sexual são uma realidade conhecida dos estudantes, investigadores, docentes e quadros técnicos do ensino superior. Nos próximos meses lançamos a investigação Abuso de Poder no Ensino Superior, um trabalho jornalístico onde procuramos compreender as múltiplas dimensões de um problema estrutural.

A tua lista de compras0
O teu carrinho está vazio.
0