fbpx

Apoia o Gerador na construção de uma sociedade mais criativa, crítica e participativa. Descobre aqui como.

Guerreiros das sombras: a moderação de conteúdo nas redes sociais

[Aviso de conteúdo gráfico.] Passam os dias em frente ao computador. Veem o que ninguém…

Texto de Redação

Apoia o Gerador na construção de uma sociedade mais criativa, crítica e participativa. Descobre aqui como.

[Aviso de conteúdo gráfico.]

Passam os dias em frente ao computador. Veem o que ninguém devia ter de ver para que mais ninguém tenha de o fazer. São confrontados com o pior do ser humano, enquanto tentam não perder o que há de humano em si. Vivem com ansiedade, depressão e stress pós-traumático, mas os acordos de confidencialidade que assinam impedem-nos de contar o que veem às próprias famílias (até aos próprios colegas). Avaliados pela quantidade de conteúdos que conseguem verificar por dia, são-lhes exigidas metas impossíveis de infalibilidade. Polícias cibernéticos? Guerreiros das sombras? “Lixeiros digitais”? Talvez um pouco de tudo e um pouco de nada. Assim é o universo invisível dos moderadores de conteúdo.

A Internet já não é uma novidade, mas também não é uma anciã. Os protocolos começaram a ser desenvolvidos na década de 60 do século passado, mas a World Wide Web como a conhecemos hoje só existe desde os anos 90. As redes sociais, ou o conceito atual de “redes sociais”, só nasceram neste século — e ninguém imaginava que, um dia, se tornariam no espaço preferido por grande parte da população mundial para fazer a sua voz ser ouvida. Nesses primórdios, nunca passaria pela cabeça de alguém que nem duas décadas depois seria possível transmitir ataques terroristas em direto para o mundo inteiro, a partir de e para dispositivos que qualquer criança de três anos pode trazer consigo no bolso.

Avançando até 2022, vivemos num mundo em que se discute os meandros da liberdade de expressão, as secções de comentários são dominadas por trolls e por bots, fotografias íntimas enviadas entre namorados são partilhadas em grupos com outras centenas, os antigos nerds de Silicon Valley tornaram-se em alguns dos homens mais poderosos do mundo, as redes sociais estão integradas em conglomerados numa indústria de milhares de milhões de euros e até podem ser compradas por multimilionários, o 45.º presidente dos Estados Unidos, Donald Trump, banido de todas as plataformas por disseminar desinformação e incitar violência, acabou por criar a sua própria, e as guerras são travadas tanto por mísseis balísticos como por hackers na Dark Web e pelo cidadão comum em aplicações de conversação.

No primeiro mês do ano, só o Facebook já estava a chegar às três mil milhões de pessoas com presença ativa mensal. Coletivamente, todos os dias, são feitas milhões de publicações, escritos milhões de comentários e enviadas milhares de milhões de mensagens, por pessoas de todas as idades. Como gerir tudo isto? Como filtrar conteúdo perigoso? Violações dos direitos humanos, ataques terroristas, conflitos armados, acidentes e catástrofes podem acontecer a qualquer momento, em qualquer lugar. E nem é preciso existirem intenções nefárias na partilha; por vezes, algo tão simples como procurar manter-se atualizado em relação à atualidade noticiosa já é suficiente para se correr o risco de exposição a conteúdos traumáticos.

Ao longo dos anos, cada rede social foi desenvolvendo um conjunto de regras ou políticas específicas, e aperfeiçoando os algoritmos para as aplicar. Estas regras existem para proteger os utilizadores e as marcas em igual medida (e talvez mais as segundas do que os primeiros, como explica Sarah T. Roberts à Vice). O Facebook (Meta Platforms Inc.) tem os Padrões da Comunidade, o YouTube (Alphabet Inc.) tem as Regras da Comunidade, o Twitter (Twitter Inc.) tem as Regras do Twitter. Destas fazem parte diretrizes relativas a discurso de ódio, notícias falsas, violência direcionada, pornografia e infrações de copyright, entre outras. As políticas das empresas não correspondem necessariamente ao que os governos querem, e muito menos ao que o público quer, se tivermos em consideração as polémicas e campanhas recorrentes contra as decisões (e posições) tomadas. A necessidade de revisão é constante e, mesmo com atualizações regulares, as áreas cinzentas continuam a existir. Mas, na prática, quem é que policia regras e inteligência artificial? Os moderadores de conteúdo.

©Sofia Matos Silva

Essenciais, mas escondidos nas sombras

A moderação de conteúdo digital é uma indústria que ronda os 9 mil milhões de dólares e que se estima chegar em 2031 aos 32 mil milhões. Os moderadores são milhares de pessoas que estão espalhadas pelo mundo fora, mas milhares não são nem remotamente suficientes quando cerca de 59 % da população mundial usa redes sociais. O TikTok (ByteDance Ltd.) tem a sua própria empresa de moderação, mas a maior parte das redes sociais tem mais moderadores a trabalhar em empresas contratadas (a prática conhecida como third-party sourcing) do que integrados nos próprios quadros. Por entre a Conectys, a Cognizant, a Accenture, a Teleperformance, a Telus International e outras, não se sabe ao certo quantos moderadores de conteúdo varrem as redes sociais todos os dias; o Facebook diz ter cerca de 15 mil, por exemplo. Em 2014, Adrian Chen publicava uma investigação na Wired em que relatava as condições de trabalho dos moderadores nas Filipinas; nela, Hemanshu Nigam, antigo diretor de segurança do MySpace, estima que o número de moderadores de conteúdo que “limpam os websites das redes sociais, aplicações móveis e serviços de armazenamento em nuvem do mundo” chega a “bem mais de 100 000”.

Sarah T. Roberts, investigadora da UCLA, passou oito anos a investigar “o trabalho de moderação de conteúdo comercial da Internet, os trabalhadores que o fazem e as razões pelas quais o seu trabalho é essencial e, aparentemente paradoxalmente, invisível”; o resultado é o livro Behind The Screen, lançado em 2019. No mesmo ano, o The Verge publicou uma série de investigações sobre as vidas dos moderadores nos Estados Unidos. “The Trauma Floor” e “Bodies in Seats”, ambas de Casey Newton, entre outras, tiveram um impacto tal que a Cognizant anunciou, no final desse ano, que iria reduzir progressivamente a sua operação de moderação, com a intenção de a extinguir. Depois do Facebook, Casey passou para o YouTube, com “The Terror Queue”, publicando mais tarde uma outra investigação relativa à operação da Accenture que revelava como os moderadores da empresa estavam a ser obrigados a assinar documentos em que reconhecem a possibilidade do trabalho lhes provocar PTSD (perturbação de stress pós-traumático).

Ao longo dos últimos anos, têm sido vários os moderadores a processar as empresas por exposição prolongada a conteúdos traumáticos; em maio de 2020, depois de um desses longos processos judiciais, o Facebook concordou em pagar 52 milhões de dólares em compensações. “Não há estudos públicos que analisem as ramificações de longo prazo deste trabalho”, dizia em 2018 Sarah T. Roberts à BBC. “Temos em mãos um grande número de pessoas — e esse número está a crescer exponencialmente — e deveríamos estar coletivamente preocupados com as consequências. Não há nenhum plano de apoio a longo prazo para quando esses moderadores de conteúdo deixarem a moderação. Espera-se que simplesmente se dissolvam de volta na sociedade.”

Numa indústria que continua a privilegiar uma ideia de digitalização, na sua ótica, a moderação de conteúdo por seres humanos é considerada “o trabalho sujo”, já que, a sua necessidade é uma prova tanto da insegurança das redes sociais como da incapacidade da inteligência artificial de lidar sozinha com essas ameaças. Assim, as Big Tech (as maiores empresas de tecnologias da informação, encabeçadas pela Alphabet, a Amazon, a Apple, a Meta e a Microsoft) contratam os serviços de empresas subsidiárias que operam um pouco por todo o mundo (mas de preferência em países onde a mão de obra seja mais barata), disponibilizam uma formação inicial e comandam a operação à distância. Independentemente do país, o perfil do moderador de conteúdo típico é alguém que terminou recentemente a sua formação superior e ainda não conseguiu encontrar emprego na área, sendo o emprego considerado de entrada no mercado de trabalho (entry-level). Moderam conteúdo de qualquer país, a partir de qualquer país, porque as barreiras linguísticas já não são tão significativas como foram em tempos. Roberts explica à The New Yorker que é uma posição que foi projetada para ser secreta. “Em muitos casos, os seus contratos impedem-nos mesmo de falar do trabalho. E a própria indústria formulou o trabalho como uma fonte de vergonha nesse sentido, uma fonte de vergonha da indústria. Não estavam entusiasmados em divulgar os esforços destas pessoas e, então, esconderam-nos nas sombras.”

A moderação de conteúdos em Portugal

Existem moderadores de conteúdo em Portugal? Que tipo de conteúdos moderam e em que condições? O Gerador entrevistou sete destas pessoas, bem como uma das pessoas que os lidera e uma das pessoas que lhes dá apoio psicológico. Devido aos contratos de confidencialidade complexos já referidos, as suas identidades permanecerão anónimas (sendo denominados por apenas uma letra maiúscula), bem como as empresas e respetivas redes sociais para as quais trabalham.

O dia a dia de um moderador de conteúdos começa no momento em que faz login no sistema, passando a primeira meia hora do turno a verificar erros, a recorrer quando não concorda e a verificar as atualizações quase diárias às políticas. Ainda assim, “a rotina diária de um moderador depende do seu trabalho” e do cargo que tem. R trabalha com redes sociais há mais de uma década, tendo já passado pelo Facebook, Twitter, Instagram, YouTube e TikTok, entre outras. Explica que um moderador pode trabalhar com texto, fotografia, áudio ou vídeo. Cada uma destas tipologias é variável por si só; texto pode implicar publicações, comentários ou informações de barras de pesquisa, e vídeo tanto se refere a publicações fixas, temporárias ou diretos. Moderar pode implicar eliminar conteúdos e impedir que voltem a surgir na Internet, bloquear o acesso de certos utilizadores às plataformas ou, até, contactar as entidades competentes e alertar para situações perigosas.

C, que é, das pessoas com quem o Gerador falou, a que trabalha há mais anos seguidos no mesmo cargo, refere que “o tipo de conteúdo varia muito consoante a ‘linha’ que se está a moderar”, sendo que a agressividade do conteúdo vai depender da linha com que se trabalha. Os processos variam muito de rede social para rede social e de empresa para empresa. Há quem lide com conteúdos assinalados pela inteligência artificial e há quem lide com publicações denunciadas por utilizadores, há quem filtre e há quem classifique, há quem faça a triagem inicial e há quem faça a triagem dessa triagem (ou a avaliação dessa triagem).

Depois, há a questão dos mercados. Agora gestora de equipas, B trabalha com este tipo de empresas há vários anos, tendo vindo a alternar entre cargos (como, aliás, a maioria das pessoas entrevistadas). Refere que há mercados mais sensíveis do que outros; os da África Subsariana, da Ásia Oriental e dos Estados Unidos são alguns dos que considera mais difíceis, “porque normalmente os utilizadores tentam fazer upload de conteúdos mais violentos”. S comenta que “o mercado português tem conteúdos muito leves comparando com o mercado alemão ou o russo, por exemplo”.

O que significa, no entanto, um conteúdo ser mais leve ou mais violento? As linhas esbatem-se, até porque o que perturba mais uma pessoa, pode perturbar outra menos — e, para quem nunca teve de lidar com tais questões, quase tudo é demasiado violento. Nudez, certos comportamentos sexuais, desacatos verbais ou físicos são geralmente considerados leves pelos moderadores; os mais pesados chegam a níveis de violência extrema, como violações, canibalismo, execuções ou crimes de guerra.

Y conta que vê “muita criança que está a dançar sem estar propriamente vestida e adolescentes com depressão que se automutilam” e, desde que a Rússia invadiu a Ucrânia, “também tem sido muito frequente ver vídeos da Guerra com pessoas mortas”. “Numa outra linha que moderei era bastante mais violento”, acrescenta, “onde diariamente se apanhava conteúdo com pessoas a serem esfaqueadas, torturadas, mortas ou mutiladas”. N, que trabalhou como moderadora durante quase dois anos, conta que lidava mais com brincadeiras de crianças, mas que “acabava por aparecer todo o tipo de conteúdo”. “Os piores, para mim, eram os de violência. Vídeos de assassinato em primeira pessoa foram os mais chocantes. Tentativas de suicídio também são bastante assustadoras de se ver. Violência doméstica, maus-tratos a animais, acidentes, pornografia, bullying…”.

Já há uns anos na empresa atual, M explica que categoriza “o conteúdo já filtrado” e, por isso, enfrenta “pouco conteúdo sensível”. Dos milhares de vídeos que vê por semana, a maioria é de entretenimento ou informativa, embora a equipa que filtra o conteúdo antes da sua, por vezes, deixe passar vídeos (ou acidentalmente, ou por não parecerem “tão graves”). O caso de G já é bem diferente. A moderar há uns meses o mercado da África Subsariana, trabalha maioritariamente com “vídeos pesados”. Pedindo desculpa por ser demasiado gráfica, explica que vê “coisas mesmo estranhas”, como de índole sexual (“crianças de onze anos a masturbarem-se”) ou acidentes (“um acidente de mota e vês uma cabeça a rolar”). H, outra moderadora, refere que “terrorismo, suicídios e pedofilia” são os conteúdos mais difíceis.

É natural perguntarmo-nos por que razão, se mais de 90 % dos conteúdos são automaticamente filtrados pelos códigos de inteligência artificial, é necessário continuar a sujeitar pessoas a um trabalho destes. A verdade é que os algoritmos não são infalíveis (aliás, as próprias percentagens o mostram), não conseguem entender nuances nem contextos culturais, e muito menos certos aspetos da realidade humana. Um desses aspetos é o caso das notícias falsas. É possível ensinar um algoritmo a detetar palavras típicas de discurso de ódio, mas é muito difícil ensiná-lo a distinguir o verdadeiro do falso. As próprias políticas internas de cada rede social falham em relação a isso; N admite que foi “bastante deprimente”, porque sentiu “muita dificuldade em deixar passar fake news”. “Embora tivéssemos critérios para moderar algumas situações, nem sempre continham os pré-requisitos para serem moderadas” e, como resultado, a maior parte dos conteúdos de desinformação acabam por ser categorizados como seguros. “A importância do trabalho de moderação de conteúdo tornou-se de relevância extrema no mundo atual e precisa de ser mais valorizado. Apesar de contar com a inteligência artificial para ser realizado em grande parte, jamais a perceção humana será substituída por robôs”, acrescenta. B lembra ainda que o moderador tem indiretamente “a tarefa de educar a inteligência artificial”.

Dependendo da rede social e do tipo de conteúdo que for, um moderador pode ter de avaliar de 200 a 1600 conteúdos diferentes por dia, chegando a avaliar vários em simultâneo. Assim, “o trabalho de um moderador é um trabalho bem cansativo para a mente” — “ter acesso a milhares de conteúdos por dia deixa o cérebro cansado”. Ainda assim, R comenta que “o mais cansativo do trabalho é a rotatividade: como a rede social fica 24 horas online, temos de trabalhar nos turnos da manhã, tarde, noite e madrugada em escalas rotativas”.

“Na maioria dos casos, a moderação de conteúdos acaba por ser um trabalho temporário enquanto as pessoas tentam encontrar algo nas áreas de formação. Torna-se um pouco robótico e repetitivo, e, para os mais sensíveis, pode ser realmente difícil de gerir a longo prazo”. P faz parte de uma das equipas de psicólogos que trabalha diretamente com os moderadores de conteúdo, tendo também passado pela moderação, em tempos. Estas constatações representam a realidade de G. Não tendo conseguido encontrar “trabalho na área” de formação “nem estágios remunerados, ou estágios que compensassem a licenciatura e a remuneração que me sugeriam”, encontrou na moderação de conteúdos uma oportunidade provisória (“nunca deixei de enviar currículos”) de ganhar algum dinheiro a trabalhar a partir de casa. Considera a remuneração “justa, até certo ponto”, mas admite não conseguir “ser moderadora durante muito mais tempo”. Para lá da pressão que exerce e dos efeitos mentais que causa, é um trabalho “muito pouco proativo”, “que a longo prazo não é tão favorável assim” e “que acaba por não enriquecer muito”. Comenta ainda que tem “alguns amigos que foram moderadores”, mas nenhum se manteve mais de um ano, algo que quase todos os entrevistados confirmam.

Um moderador de redes sociais não leva trabalho para casa no fim do turno, mas leva uma bagagem considerável. A natureza dos conteúdos provoca efeitos tanto a curto como a longo prazo, menos graves nuns, mais graves noutros, mas ninguém sai indiferente (e, se sai, a indiferença é um efeito por si só). Uns dizem “nunca perdi o sono ou tive pesadelos”; outros, “quando comecei ficava bastante afetado com alguns conteúdos, até cheguei a sonhar com eles”. Alguns dizem recorrer a drogas para acalmar a ansiedade e atenuar o impacto emocional. Numa coisa todos parecem concordar: a distância é a sua melhor amiga.

  • C: "Na maioria dos casos, tento imaginar que se trata de um filme ou algo fictício, de forma a tentar esquecer que o que estou a ver é real. Também me conforta saber que o facto de ter moderado aquele vídeo pode fazer com que certos mecanismos sejam ativados de forma que se possa ajudar a levar os criadores à justiça. Acho que depende de pessoa para pessoa e também do tipo de moderação que se está a fazer, há certos tipos que não são tão mentalmente drenantes. Penso que acaba por ser uma questão de se conseguir desligar do trabalho quando o turno acaba.”
  • N: "Desde o início que tentei romantizar a oportunidade. Afinal, o papel do moderador de conteúdo é o de tornar a Internet num lugar mais seguro para as pessoas. Gostava de pensar que era uma gatekeeper, uma espécie de protetora dos conteúdos maliciosos, uma guardiã que contribuiria para que a rede social fosse, de facto, um ambiente mais seguro para os utilizadores. No entanto, a atividade diária dá a sensação de que somos mesmo ‘lixeiros digitais’. Tentei perceber se havia como propor ideias, sugestões, já que até há um incentivo para tal, mas o fluxo é bastante engessado e, no fundo, não querem pessoas que pensem nos processos, no que está sendo feito, e sim que sejamos moderadores mais robóticos do que humanos. Tive burnout, e desde que saí estou a permitir-me um detox mental profundo. “
  • U: "Fico afetado, sim, alguns conteúdos são grotescos e desumanos. A forma de lidar passa por ajuda psicológica proporcionada pela empresa, e CBD [canabidiol] para acalmar a ansiedade.”
  • M: "Quando vejo que um vídeo contém conteúdo problemático, vou apenas até onde já é o suficiente para o proibir, de forma a não ter de ver algo ainda mais chocante.”
  • H: "Não levo os vídeos a peito, não sou sensível visualmente, trabalho já há uns anos sem recaídas nenhumas. O segredo é não levar nada como algo pessoal, ser literalmente insensível.”

O apoio fornecido diversifica-se entre empresas. C refere que na sua “não é dado grande apoio profissional”, e o que existe é “apenas em último caso”. Ainda assim, foi criado, “recentemente, um período de meia hora diária em que podemos ‘desligar’ do trabalho ou participar numa atividade”, e também já há “um grupo de pessoas (não profissionalmente qualificadas) que estão lá para apoiar”. Já M diz algo um pouco diferente: “Uma vez por mês somos contactados por um psicólogo que faz testes para avaliar as nossas respostas e ter uma ideia do nosso estado de espírito. Para além disso, existe uma equipa de wellness que organiza workshops de yoga e meditação. Ainda temos psicólogos com quem podemos marcar mais consultas gratuitamente”. O moderador R acrescenta que têm “acesso a um seguro de saúde privado”. “As empresas disponibilizam ajuda psicológica sempre que precisemos, mesmo que não seja relacionado com o trabalho, e também temos sessões obrigatórias durante o ano”, conta outra moderadora, H.

Enquanto superior direta, B explica que os moderadores são convidados a falar consigo sempre que precisem de parar um pouco e de passar “algum tempo offline”. Para tal, dispõem de três pausas (sendo que uma é para almoço), mais uma a que chama “wellbeing time”. Por seu lado, P lembra que na sua “altura não havia qualquer suporte neste sentido”, daí ter começado “a dar essas dicas”. Desde então, “já começa finalmente a haver preocupação e investimento na área da saúde mental” e há “consultas de psicologia, para que as pessoas (não só agentes, mas também staff como supervisores, analistas de qualidade e trainers) possam ter suporte em vários formatos”. Nas consultas de psicologia, o que costuma aconselhar, perante certos conteúdos mais difíceis, “é fazer pausas, pedir ajuda a um colega ou chefe de equipa, falar com um psicólogo (havendo essa opção), tentar sair do computador, beber um copo com água, lavar a cara, apanhar um pouco de ar, escrever sobre o que viu, e, até, tentar visualizar outras coisas que ajudem a abstrair a mente, como vídeos de gatinhos, ou ouvir músicas que permitam igualmente uma maior distração”.

“Um bom ambiente de equipa é igualmente importante para que os agentes se sintam apoiados”, acrescenta, porque “é um trabalho com muita pressão” direcionada para os resultados. M parece concordar, já que defende que “o mais importante é ter uma equipa de management compreensiva, pois infelizmente muitos chefes apenas pensam nos números e estatísticas que o trabalho dos agentes representa”. Sugere ainda que “ter mais flexibilidade horária, poder gerir o seu objetivo à vontade durante o dia em vez de ser constantemente monitorizado, seria mais aliviante a nível de stress.”.

A pandemia dos últimos anos obrigou as empresas a passar as suas operações para o regime de trabalho remoto (sendo que foram, sem dúvida, das que o fizeram com menos problemas). Porém, algumas ainda não regressaram aos escritórios e os efeitos do isolamento são cada vez mais notórios. O teletrabalho, na opinião de C, “não devia ser tão implementado como está”. “Acho que a possibilidade de interagir com outras pessoas enquanto se trabalha tornaria tudo muito mais fácil de lidar. Poder falar um pouco com o colega do lado depois de se ver um vídeo violento, para desanuviar a cabeça, em vez de se estar sozinho a uma secretária em casa”, desabafa. Adicionalmente, era importante ter “mais pessoas a moderar”, diz G, porque a “carga de trabalho” é enorme, e assegurar uma maior mobilidade e rotatividade entre cargos, tanto entre “linha de business” como mesmo entre os tipos de moderação — “depois de um determinado tempo a trabalhar num tipo de conteúdo mais stressante poderia passar-se para um tipo de conteúdo mais leve”, fornece B. Ironicamente (e previsivelmente), a maioria nota ter diminuído bastante a sua presença nas redes sociais, havendo exemplos de quem tenha preferido eliminá-la de vez e apagar as próprias contas.

M reduziu “as horas passadas nas redes a metade ou mais”. “Isto porque, nas nossas redes pessoais, temos maioritariamente acesso a conteúdo que é do nosso interesse. Ora, ao moderar todo o tipo de conteúdo, vemos coisas que antes não víamos e a que ponto as redes sociais podem ser tanto positivas e entreter, como podem ser negativas e assustadoras. Podem ajudar a nível de awareness para problemas mundiais, como o aquecimento global, problemas bélicos ou sociais, o que é positivo, porque permitem atingir um número de pessoas muito mais vasto do que antigamente. Mas, também, podem ser extremamente perigosas nas mãos de quem não está num lugar seguro, psicologicamente falando. Tanto para quem publica como para quem visualiza. Existe, infelizmente, muita maldade gratuita.”

Ao sermos confrontados com alguns tipos de vídeos que têm de ser limpos das redes sociais, é impossível em algum momento (o mais provável é que sejam vários) não nos interrogarmos sobre as razões que levam alguém a querer tornar aquilo público, se conseguirmos, em primeiro lugar, ignorar as razões que levam alguém a fazer algo assim. “Penso muitas vezes que até podem ser pessoas com necessidade de apoio e aquilo acaba por ser uma chamada de atenção, mas, ao mesmo tempo, sabemos que há uma grande falta de empatia e muita maldade no mundo, e há pessoas que têm um certo prazer no que fazem e publicam sabendo que isso pode impactar quem está do lado de lá.” As palavras são de P, que acrescenta ainda: “Daí que, apesar das nuances mais negras desta profissão, também há o seu lado de benfeitor, uma vez que acaba por ‘limpar’ a Internet e ajuda a proteger principalmente os mais novos que tão precocemente têm acesso a estas redes”.

B sugere que “determinados conteúdos sensíveis” talvez sejam publicados “para que as pessoas se sintam incluídas num determinado grupo social ou grupo de trends”. Tal como P, pensa que “isso são mesmo tentativas de chamar à atenção” e que são “pessoas psicologicamente e psiquiatricamente que têm mesmo de receber ajuda”. “Acho que têm as prioridades completamente trocadas”, comenta G. “Não têm noção de privacidade, não têm noção daquilo que se deve ou não pôr na Internet, não existe esse bom senso, vamos pôr assim, e essa é uma das coisas que me transcende.”

Num contexto como este, tem-se os menores de idade em particular consideração na perspetiva de serem potencialmente expostos a conteúdos perigosos. No entanto, os mais jovens também podem, eles próprios, ser produtores de conteúdos e de se porem em risco, algo que é salientado por C. “Deixa-me especialmente chocado a falta de atenção que os pais das crianças têm ao seu comportamento online. A quantidade de conteúdo que vejo em que crianças com menos de 15 anos se sexualizam, se filmam sem roupa ou se metem a fazer danças extremamente sexualizadas é surpreendente. Acho que os pais deveriam ter um envolvimento muito maior na vida online das crianças, porque estas situações colocam-nas em posições vulneráveis perante predadores sexuais. Para não falar no bullying, que também é cada vez mais visível e que se torna extra agressivo porque acham que estão seguras atrás de um ecrã de telemóvel.”

Mas e se alguma coisa acontecesse e todo este conteúdo ficasse disponível sem filtros? “Seria avassalador!”, reage P. “A quantidade de vídeos chocantes, bárbaros, que são publicados diariamente, com cenas extremamente explícitas, causaria, sem dúvida, um colapso emocional muito grande em algumas pessoas e até culturas”. G lembra que não seria preciso acontecer nada de invulgar: “Nós tentamos moderar vídeos em tempo real, e, às vezes, temos um acumulado de vídeos tão grande que existem vídeos que já foram passados para o público”. R comenta que prefere imaginar que se algo “bloqueasse a moderação de conteúdo, a própria rede social derrubaria a rede”, visto que seria “um caos por completo” — uma espécie de “no-man's-land digital”. Já U é muito direto e termina sem rodeios: “O conteúdo seria exposto e as pessoas compreenderiam o que é realmente uma rede social.”

Texto de Sofia Matos Silva
Ilustração de Marina Mota

Publicidade

Se este artigo te interessou vale a pena espreitares estes também

9 Dezembro 2024

O Algarve está a caminho da desertificação crónica

2 Dezembro 2024

“Sociedades paralelas” na Dinamarca: fronteiras imaginárias em renovação

11 Novembro 2024

Hotspot Climático: Portugal vai aquecer a um ritmo 20% superior ao aquecimento médio global

30 Outubro 2024

Ovar Expande: uma viagem da música ao cinema na 5.ª edição do festival

21 Outubro 2024

Doentes de paramiloidose passam a dispor de novo fármaco para travar a perda de autonomia

19 Junho 2024

Acessibilidade web: apenas 13 % das páginas da administração pública estão conforme a lei

23 Abril 2024

Informação local: resistir apesar de tudo

19 Março 2024

O Teatrão: 30 anos de história, de novos desafios e de velhos problemas

19 Fevereiro 2024

Assistência sexual e a democratização do acesso ao corpo

14 Fevereiro 2024

Direito de resposta

Academia: cursos originais com especialistas de referência

30 JANEIRO A 15 FEVEREIRO 2024

Gestão de livrarias independentes e produção de eventos literários [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Jornalismo e Crítica Musical [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Fundos Europeus para as Artes e Cultura I – da Ideia ao Projeto [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Comunicação Cultural [online e presencial]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Assessoria e Escrita de Comunicados de Imprensa

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Viver, trabalhar e investir no interior

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Financiamento de Estruturas e Projetos Culturais [online]

Duração: 15h

Formato: Online

30 JANEIRO A 15 FEVEREIRO 2024

Desarrumar a escrita: oficina prática [online]

Duração: 15h

Formato: Online

Investigações: conhece as nossas principais reportagens, feitas de jornalismo lento

16 Dezembro 2024

Decrescer para evitar o colapso

O crescimento económico tem sido o mantra da economia global. Pensar em desenvolvimento e em prosperidade tem significado produzir mais e, consequentemente, consumir mais. No entanto, académicos e ativistas pugnam por uma mudança de paradigma.

22 Julho 2024

A nuvem cinzenta dos crimes de ódio

Apesar do aumento das denúncias de crimes motivados por ódio, o número de acusações mantém-se baixo. A maioria dos casos são arquivados, mas a avaliação do contexto torna-se difícil face à dispersão de informação. A realidade dos crimes está envolta numa nuvem cinzenta. Nesta série escrutinamos o que está em causa no enquadramento jurídico dos crimes de ódio e quais os contextos que ajudam a explicar o aumento das queixas.

A tua lista de compras0
O teu carrinho está vazio.
0