Apoia o Gerador na construção de uma sociedade mais criativa, crítica e participativa. Descobre aqui como.
Estamos em 2041, Mumbai, Índia. Uma família inscreve-se na Ganesh Insurance, um programa de seguros assente na ferramenta de deeplearning (aprendizagem profunda) da inteligência artificial (IA).
A mãe poupa dinheiro, graças à aplicação de ofertas complementares ao programa. O pai deixa de fumar e passa a conduzir de forma mais cautelosa. Um dos filhos passa a comer de forma mais saudável, após a IA o alertar para a probabilidade de desenvolver diabetes. No fundo, o programa de seguros, por via de uma aplicação instalada no smartstream (telemóvel de 2041), dá recomendações em tempo real, baseadas num enorme conjunto de dados que os utilizadores aceitaram ceder. Essas recomendações traduzem-se, frequentemente, numa diminuição do prémio do seguro, caso sejam seguidas e vice-versa.
«Para Nayana [a filha], aquele pequeno elefante dourado tinha feito uma lavagem ao cérebro a todos na família. Tinham-se tornado muito conscientes de que qualquer mudança de comportamento podia aumentar ou baixar os seus prémios. Na opinião de Nayana, sempre que algo estava ligado ao dinheiro, parecia que o cérebro humano entrava em piloto automático. As pessoas faziam o que fosse preciso para ganhar um prémio e evitar uma multa.»
A aplicação do seguro estava conectada a um conjunto de outras, nomeadamente àquelas que se destinavam à interação social.
«Agora, sempre que navegava, conversava, punha gostos ou até quando selecionava emojis no ShareChat, Nayana só conseguia pensar em como as suas escolhas iriam afetar os prémios de seguro da família. Achava todo o sistema irritante e ridículo.»
Devido ao sistema de castas, tradicionalmente vigente na Índia – uma forma de hierarquia social que discriminava a população e a classificava em «níveis», associados ao nome de família –, a IA também acabava por alertar se era mais ou menos seguro determinadas pessoas interagirem. A jovem Nayana via-se, por isso, a receber constantes notificações de alerta sempre que interagia com Sahej – por quem estava apaixonada –, que era originário de uma casta «inferior» à sua.
«– Só porque já não é permitido por lei e não aparece nas notícias não significa que tenha desaparecido – diz Sahej.
– Mas como é que a IA podia saber disso?
– A IA não sabe. A IA não precisa de saber a definição das castas. Tudo o que precisa é do histórico dos seus utilizadores. Não importa o modo como nos escondemos ou se mudamos de sobrenome, os nossos dados são uma sombra. E ninguém pode escapar à sua sombra.
Isto acontecia devido à maximização objetiva da função:
«Os seres humanos dão à IA o seu objetivo, que, neste caso, é diminuir os prémios de seguro para o custo mais baixo possível. Depois, a IA faz de tudo para atingir esse objetivo. A IA não vai considerar nada além desses fatores, seguramente não vai considerar se estamos felizes ou não. As máquinas não são inteligentes o suficiente para interpretar todos os sentimentos que existem por trás dos dados. Além disso, estas injustiças e preconceitos ainda são reais. Tudo o que a IA faz é levantar o véu da vergonha.»
Esta história de ficção científica foi retirada do livro Inteligência Artificial – 2041, ao qual pertencem os trechos entre aspas. A obra, lançada este ano em Portugal pela Relógio D’Água, é assinada por Kai-Fu Lee, ex-presidente da Google China, e Chen Qiufan, romancista, que se juntaram para escrever um livro de contos ilustrativo de diferentes situações que a IA pode tornar realidade num futuro próximo.
O conto O Elefante Dourado, que aqui foi citado, ilustra de forma concreta como pode a IA acentuar as desigualdades já existentes na sociedade. Para maximizar a eficiência, os dados relativos a características individuais e coletivas são processados pelos algoritmos sem que sejam considerados aspetos sociais discriminatórios. Tal facto conduz a uma maximização dos preconceitos já existentes na sociedade.
Mas, antes de mais, por que motivo isto acontece?
O conceito não é novo. As primeiras grandes inovações neste campo surgiram na década de 1950, altura em que foi cunhado o termo propriamente dito. Em 1956, teve lugar em Dartmouth, no estado norte-americano de New Hampshire, um encontro científico que juntou vários investigadores da área, que depois viriam a criar grupos de pesquisa em diferentes instituições. «As primeiras abordagens tentaram reproduzir partes do raciocínio humano, que, na altura, pareceram as mais avançadas, como demonstrar teoremas, planear sequências de ações e jogar jogos de tabuleiro», segundo descrito pelo investigador na área da tecnologia e engenharia informática, Arlindo Oliveira, no livro Inteligência Artificial (2019, Fundação Francisco Manuel dos Santos).
«Logo a seguir houve um interesse e um entusiasmo enorme da comunidade. Só que as máquinas, na altura [tinham menos capacidade], não havia dados, correr um algoritmo demorava muito tempo, e o que aconteceu foi que, logo a seguir, houve o que se chama primeiro inverno da IA», explica Ana Paiva, professora no Instituto Superior Técnico e investigadora na área da IA.
ANA PAIVA © Alípio Padilha
Este primeiro «inverno», em que o interesse na área decresceu consideravelmente, prolongou-se pela década de 1970, sensivelmente. A explicação prende-se com as elevadas expectativas sobre a IA criadas antes desse período e que não tiveram correspondência na realidade. Esperava-se, por exemplo, que dentro de três décadas seria possível desenvolver tecnologias com inteligência semelhante à humana, o que claramente não sucedeu.
O avanço na computação renovou o interesse, mas a deceção iria, mais uma vez, levar a um novo «inverno» da IA, nos anos 1990, altura em que a investigadora Ana Paiva se iniciou neste campo. «Nessa altura, toda a gente dizia que a IA estava morta», relata. «O que aconteceu, logo ali a meio dos anos 90, foi a web, que vem trazer muitos dados, combinados com máquinas cada vez melhores.»
Este «caldo» de circunstâncias viria a culminar no surgimento do deep learning, que a especialista descreve como sendo «estatística “on steroids”». Essa tecnologia «permitiu usar estes algoritmos de aprendizagem com redes neuronais e novas arquiteturas». Estas, inspiradas na configuração do cérebro humano, permitem às máquinas «aprender» através de diferentes camadas de dados simultaneamente. «Com os dados que agora temos – que são imensos, que não havia –, com máquinas muito potentes – que agora há, que não havia –, [isto] permitiu, de repente, criar sistemas que conseguem ter comportamentos que parece mesmo que é comportamento inteligente», mas que se trata apenas do resultado de cálculos probabilísticos.
Muitos especialistas e investigadores referem que o próprio termo «inteligência artificial» pode ser enganador e levar a interpretações incorretas sobre o que efetivamente fazem as máquinas. «Aqui, inteligência é um conceito muito estrito, de inteligência enquanto capacidade de resolução de problemas», explica João Luís Cordovil, coordenador científico do Centro de Filosofia das Ciências da Universidade de Lisboa, que estuda as áreas de filosofia da física, da metafísica da ciência e da ciência e arte.
Esta expressão engloba, na verdade, uma multiplicidade de tecnologias complexas, motivo pelo qual João Ribeiro, cofundador e diretor da plataforma Shifter, diz que devia até ser usada no plural.
JOÃO CORDOVIL © Foto de cortesia
«A IA é tanto uma ciência como uma engenharia», esclarece. «É algo que, como uma ciência, estabelece hipóteses e procura confirmar essas hipóteses para trazer mais conhecimento, [como] a ideia de replicar as formas de inteligência que nós conhecemos e replicá-las na máquina.» Além desta, existe a visão de engenharia «que serve a implementação dessas soluções em ambientes práticos, seja empresas, criatividade ou o que for».
«Portanto, se, por um lado, há um enquadramento da IA enquanto algo sempre difícil de atingir – do lado da ciência, percebeu-se que, o que a máquina faz, não é aquilo que nós chamamos inteligência, portanto vai-se sempre movendo, esse alvo –, do lado da engenharia convencionou-se que chamar IA às coisas era uma boa forma de as promover.»
Daí que João Ribeiro acredite que a primeira vertente se afasta da definição e a segunda se aproxima. «É isso que torna difícil as pessoas definirem e perceberem o que é a IA», diz.
Embora passe muitas vezes despercebida, a IA está presente em muitas das ferramentas que utilizamos diariamente. Desde os algoritmos das redes sociais, a sistemas de reconhecimento facial, chatbots de empresas, e-mail pessoal, sistemas de mapeamento, entre muitos outros exemplos. Apesar disso, o campo ganhou uma popularidade repentina que o embrulha num invólucro de aparente novidade.
A explicação para o entusiasmo súbito em torno da IA prende-se com o desenvolvimento de um campo muito específico: processamento de linguagem natural. Grosso modo, esta é a tecnologia que nos permite interagir com as máquinas através de linguagem humana, sem que seja necessário recorrer à programação. É isto que é possível fazer no ChatGPT, a aplicação lançada pela empresa OpenAI, que conseguiu ter 100 milhões de utilizadores em dois meses. O Google Translate, por exemplo, levou seis anos até atingir esse número.
Esta aplicação responde a perguntas, cria poemas e até escreve teses de mestrado, sem que, no entanto, haja qualquer verificação de veracidade dos factos ou estudos citados, que podem mesmo ser totalmente fictícios. Isto porque o que o ChatGPT faz é calcular probabilidades de sequências de palavras que nos surgem como um discurso coerente, mas que, na verdade, não resultam de qualquer componente semelhante ao raciocínio humano. Para isso, a aplicação recorre aos milhares de dados com que foi treinada a tecnologia GPT-3 – o large language model da empresa OpenAI, que está na sua base –, concretizando o que João Ribeiro chama «emulação» da linguagem humana. «Basicamente, quando estamos a jogar aqueles jogos do Gameboy no computador, passado não sei quantos anos, parece que estamos a jogar o mesmo jogo [de antigamente], mas não estamos. Há uma emulação do jogo. O dispositivo com que estamos a jogar não é o mesmo. Com a IA acontece mais ou menos a mesma coisa», diz. «O resultado parece o mesmo, mas a forma como se chega lá é completamente diferente.»
Ana Paiva assume-se surpreendida com a evolução que os large language models têm apresentado nos últimos dois anos. A investigadora atribui o desenvolvimento célere à combinação da evolução dos algoritmos, aliada ao grande desenvolvimento de máquinas e capacidade de processamento e à abundância de dados que temos atualmente.
Segundo a especialista, é possível dizer que estes modelos têm algum nível de entendimento, ainda que ele não se assemelhe de todo à compreensão humana. «O sistema tem ali um conjunto de biliões de parâmetros que estão a mexer e, quando entra uma coisa, cria uma representação», explica. «Isso é a mesma coisa que o entendimento humano? Não, mas é uma forma de, de alguma maneira, representar os dados que estão a vir, de forma a gerar qualquer coisa a seguir.»
No já citado livro de Kai-Fu Lee e Chen Qiufan, Inteligência Artificial – 2041, é ficcionada a história de um produtor de vídeo nigeriano que é recrutado por uma organização obscura, por meio de chantagem, para elaborar um deepmask – sucessor do deepfake – indetetável e com capacidade para influenciar a opinião pública sobre uma figura política, associando-a a discursos falsos. Neste contexto temporal, os detetores de fraudes são tão comuns na cibersegurança como os antivírus que atualmente usamos. Para proteger personalidades de destaque, exista o «detetor VIP», com eficácia reforçada. Este é descrito da seguinte forma no conto:
«O detetor VIP, como tinha sido apelidado, fora concebido para proteger a reputação de figuras públicas: políticos, funcionários do governo, celebridades, atletas e académicos. Tais pessoas preeminentes deixavam grandes rastos na internet, o que as tornava particularmente propícias a serem alvo de deepfakes. O detetor VIP destinava-se a evitar que esses ‘supernós’ no ciberespaço se tornassem vítimas de fraude, e os consequentes danos devastadores para a ordem social que daí podiam advir. Os websites que publicavam fotografias ou vídeos de indivíduos proeminentes foram obrigados a aplicar este algoritmo especial de deteção ao conteúdo antes da publicação. O detetor VIP incorporava tecnologia que incluía o reconhecimento facial de ultra-alta resolução, sensores de reconhecimento da linguagem corporal, reconhecimento de geometria da mão e dos dedos, avaliação da fala e até reconhecimento de veias.»
Mesmo assim, com a técnica adequada e maior capacidade computacional, era possível enganá-los. De tal forma que, nesta estória intitulada Deuses Por Trás das Máscaras, o uso de máscaras na rua tornara-se uma forma comum de evitar que o rosto fosse captado por câmaras em lugares públicos e, dessa forma, apropriado para criar vídeos fraudulentos. Na análise subsequente que faz deste conto, Kai-Fu Lee destaca que este tipo de situação pode afetar países desenvolvidos mais precocemente, já que estes possuem mais recursos económicos e tecnológicos. Os países em situações mais frágeis sentirão a onda de choque tardiamente. «Além disso, a legislação será, provavelmente, implementada em primeiro lugar» no Ocidente, diz, o que irá, mais uma vez, deixar os países em desenvolvimento em situação de desvantagem.
Ao contrário de Kai-Fu Lee, são poucos os pensadores e especialistas que arriscam previsões concretas sobre os impactos da IA na sociedade. Académicos, políticos, filósofos e artistas questionados pelo Gerador desenham cenários distintos, mais ou menos conservadores, quanto às transformações que poderemos vir a observar, ressalvando que muitas considerações se situam no domínio da especulação.
A expetativa em torno do futuro é, para João Ribeiro, precisamente uma parte do marketing da IA. «Esta área tem um problema que é: há muitos anos que eles acham que vão revolucionar o mundo. Em 2014, com a IBM, com o Watson, também se achava que já era desta vez. É uma indústria que vive muito de criar expetativas porque isto são coisas que são muito caras», explica.
«Nem nos passa pela cabeça o dinheiro que é preciso para treinar os modelos e fazer aquele investimento. Eles têm de ter retorno. Têm de convencer as pessoas que aquilo serve, para as pessoas pagarem, senão é um negócio que é atirado ao lixo. Portanto, a criação de expectativas é quase uma feature da IA», afirma o diretor e fundador da plataforma Shifter.
Ressalvando que é «muito difícil prever os impactos», João Ribeiro refere que há já aspetos que podem ser considerados, no que respeita a todos os fatores que rodeiam a discussão.
«A linguagem é extremamente política. Usar a linguagem é, em última análise, uma forma de controlo. Nesse aspeto, há uma primeira dimensão muito importante quando se fala destes modelos que é: eles são o expoente máximo do colonialismo digital».
Um exemplo que usa para corroborar esta afirmação é a predominância da língua inglesa nos dados usados para treinar os modelos de linguagem da IA. «Só por aí, nós estamos a ver que há uma sobredimensão da língua e cultura inglesa, e que só isso já projeta a hegemonia cultural dos Estados Unidos [da América] no espaço digital, que ainda fica mais exacerbada.»
No que respeita a desigualdades que poderão ser agravadas, Dora Kaufman, investigadora do Instituto de Estudos Avançados e do Centro de Pesquisa em Redes Digitais Atopos, da Universidade de São Paulo, aponta três níveis principais: «O primeiro é entre países. A China e os Estados Unidos, por exemplo, estão cada vez mais distantes do resto do mundo. O segundo é entre empresas. Se não adotam IA, perdem competitividade e terreno. O terceiro é entre pessoas. É uma tecnologia complexa, que traz novas funções que precisam de formação.»
DORA KAUFMAN © Foto de cortesia
É precisamente no primeiro «nível», o dos países, que João Luís Cordovil salienta que se trata de uma invenção que, como todas as outras, terá consequências que não serão uniformes. «As invenções necessitam de um momento histórico para serem implementadas», diz o filósofo, que dá o exemplo das mudanças subsequentes à Revolução Industrial. «Há, neste momento, uma complicação que é [o facto de] o mundo ocidental poder ir numa direção e o resto do mundo não ir nessa direção e criar uma tensão, nomeadamente baixar imenso os custos de trabalho para serem competitivos, no extremo asiático. Isto iria aumentar a desigualdade entre países.»
Segundo o académico, podem criar-se novas formas de organização social mediante a maneira como a tecnologia é implementada nas diferentes sociedades. Se, por um lado, a IA pode ser usada para substituir trabalho repetitivo, libertando os trabalhadores em alguns países, noutros, pode haver uma tentativa de aumentar a competitividade por meio de remunerações mais baixas ou aumento das horas de trabalho.
João Luís Cordovil afirma que isso «significa que, para essas sociedades, que estão muito montadas no controlo e exploração do indivíduo, torna-se particularmente complicado saber o que vai acontecer. Pode acontecer ou uma revolta das populações porque querem ter o mesmo tipo de modelo, ou pode haver uma sobre-exploração dessas pessoas».
«Estamos a criar uma cisão na sociedade mundial entre aqueles que, realmente, vivem bem-estar pós-emprego e os outros que vivem quase em regime de escravidão. Porque o problema é esse: não podemos competir com a máquina. Essas coisas podem libertar-nos para sermos pessoas, mas também podem fazer precisamente o contrário e ser um competidor com o qual nós não conseguimos competir», acrescenta.
Pelas suas características, a IA pode permitir aos regimes totalitários concentrar ainda mais poder, permitindo-lhes um maior controlo sobre os seus cidadãos, conforme referido por diferentes investigadores e autores reconhecidos na área. Além disso, pode também dar origem a novos mecanismos implementados no seio de sociedades democráticas.
No já citado livro Os Algoritmos e Nós, Paulo Nuno Vicente refere o surgimento da «algocracia», que define como «o regime emergente da adoção de algoritmos no exercício do poder». Em termos simples, isto significa «o governo ou a administração do poder através de algoritmos». O autor afirma que as «práticas algocráticas» estão já presentes em diferentes segmentos do «poder legislativo, judiciário e executivo, atravessando diversos domínios de atividade, nomeadamente por via da adoção de sistemas especialistas e/ou mecanismos preditivos de aprendizagem automática».
O académico cita, no livro, exemplos de como estas práticas são já implementadas atualmente: sistemas algorítmicos de cobrança de dívidas fiscais na Austrália, implementados em 2016 – o denominado Robodept, cujas fragilidades acabariam por provocar uma inflação ou sinalização de falsas dívidas, que resultou numa cobrança indevida de mais de 750 milhões de dólares junto de 381 mil beneficiários de apoios sociais –, ou programas computacionais usados nos EUA para definir os horários da polícia estadual com base na identificação de «zonas quentes», ou seja, zonas onde, com base em dados de registos passados, se previa que existia mais propensão para ocorrerem crimes. Estes programas – como o COMPAS, utilizado nos estados de Nova Iorque, Wisconsin, Califórnia e Florida ou o PredPol, desenvolvido para a polícia de Los Angeles –, possibilitam o «policiamento preditivo», por assentarem na noção de «comportamento antecipável» em vez de atos efetivamente cometidos. «Uma vez que todas as previsões geradas são estabelecidas com base em dados referentes ao passado, e que estes são um reflexo direto de ações policiais anteriores, torna-se ostensivo o perigo de uma retroalimentação informativa: áreas previamente mais policiadas tendem a disponibilizar mais dados do que áreas menos policiadas, perpetuando-se deste modo uma espécie de “profecia” algorítmica autocumprida», de acordo com a obra.
Paulo Nuno Vicente, docente de media digitais na Universidade NOVA de Lisboa e investigador de temáticas relacionadas com o impacto social da IA, descreve ainda, na mesma obra, que estes sistemas «reiteram a ilusão de um gesto social amoral e objetivo», no entanto, «quer os modelos, quer os dados que lhes servem de matéria-prima são, em si mesmos, uma construção social», ou seja, resultado de uma cadeira de interpretações. «A reiteração de um código postal num sistema de policiamento preditivo pode ser um indicador de segregação racial, tal como o cálculo automático de uma taxa de juro associada a um empréstimo bancário o sinal de uma discriminação de género», lê-se.
Além das diferenças sociais internacionais, a IA pode também transformar o mundo em termos demográficos, acredita António Pele, professor na Faculdade de Direito na Pontifícia Universidade Católica do Rio de Janeiro, que explora temáticas relacionadas com direitos humanos e tecnologia. «A IA implica pesquisa, implica criar um hub de pessoas que vão trabalhar nesse âmbito», explica. Assim sendo, haverá consequentemente países e até mesmo cidades que captarão mais financiamentos e mão de obra qualificada, tornando-se cada vez mais atrativas. «Como nos Estados Unidos: está visto que quinze cidades produzem dois terços de toda a tecnologia relacionada com a IA. Isso gera desigualdades. Essas cidades surgem como as mais atrativas, mais interessantes, mas, outras cidades que não têm IA parecem menos atrativas.»
ANTÓNIO PELE © Nicolas Delaroche Studio
Diz o provérbio que, em terra de cegos, quem tem um olho é rei. Num mundo repleto de empresas que ainda estão a tentar entender como abraçar os avanços tecnológicos, aquelas que liderarem a área da IA terão uma vantagem assegurada, projetam os especialistas, alertando que poderá haver, deste modo, um agravamento também da desigualdade entre as várias companhias presentes no mercado.
«O que se vê é quase uma corrida às armas», descreve João Castro, professor associado na NOVA School of Economics e supervisor académico no Digital Experience Lab, que promove a reflexão crítica em torno das tecnologias emergentes e do seu potencial impacto nas pessoas, organizações e na sociedade como um todo. Segundo o especialista, o mesmo aconteceu com a agregação de dados: gigantes como o Facebook e a Amazon conseguiram assumir a liderança desse campo e usar a informação recolhida dos seus utilizadores para multiplicar os seus ganhos, arrasando a competição.
«Existe um conjunto muito pequeno de empresas que vai beneficiar disto [dos avanços na área da IA]», observa, na mesma linha, a professora e investigadora Ana Paiva. E deixa um alerta: é preciso garantir que «isto não fica nas mãos de um conjunto muito limitado de empresas norte-americanas», o que poderia ter reflexos até na maneira como os novos sistemas se comportam, já que seriam treinados com base em dados somente dos Estados Unidos. «Para que haja transparência e seja dada a possibilidade de as pessoas perceberem o que está a acontecer, é preciso treinar large language models na Europa, com dados específicos dos países», defende, assim, Ana Paiva.
JOÃO CASTRO © Foto de cortesia
Investigadora no Brasil, Dora Kaufman replica o alerta de que é preciso abrir a tecnologia a mais do que a um punhado de gigantes. «As big tech têm um poder descomunal. Essas empresas estão cada vez mais poderosas, e os Estados estão cada vez mais fragilizados face a elas», sublinha a académica. Importa notar que há empresas tecnológicas cuja valorização de mercado já supera mesmo o produto interno bruto (PIB) de certos países. A Microsoft, por exemplo, vale 2,39 biliões de dólares (cerca de 2,2 biliões de euros), enquanto a economia portuguesa anda à volta de 250 mil milhões de euros.
«O que pode ser feito é criar infraestruturas para que outras empresas possam ter acesso à transição tecnológica, nomeadamente para que tenham acesso a Internet que funcione em boas condições», sugere a Dora Kaufman. Já Pedro Gaspar, da APDSI, adianta que, por cá, as empresas estão já sensibilizadas para a importância da IA, mas reconhece que estão apenas no início de incorporar essa tecnologia nos seus processos. «O desafio é grande, até porque o tecido empresarial é composto, sobretudo, por pequenas e médias empresas», sublinha.
As companhias que dominarão os sistemas de IA não estarão, contudo, em vantagem apenas face às demais. Projeta-se também uma alteração no modo como se relacionam com as pessoas, que podem perder poder, alertam os especialistas. «Podemos ter um regime totalitário controlado pelas empresas que sabem o que fazemos», ou seja, as grandes tecnológicas, prevê o especialista João Luís Cordovil. «A publicidade seria cada vez mais direcionada e basicamente aquilo que é o indivíduo é aquilo que ele gasta. Podemos passar a ter uma sociedade de extremo consumismo, muito maior do que na atual», avisa.
Um outro risco é o das grandes tecnológicas tentarem que os serviços públicos sejam substituídos por sistemas de IA, isto é, apresentarem-nos como alternativa mais em conta a um médico ou a um advogado humano. O alerta é dado pelo professor António Pele. «Isso vai ser para as classes precarizadas. As pessoas ricas vão ter sempre humanos na interação. Um professor humano, um doutor humano, um advogado humano, um amigo humano. Mas as pessoas que têm um salário mais baixo [vão estar numa situação em que], se não têm dinheiro para um médico, há um serviço de IA», projeta.
PEDRO GASPAR © Foto de cortesia
Por outro lado, os avanços tecnológicos poderão prolongar a vida humana, existindo o perigo de que tal possibilidade se cinja a apenas quem «conseguir comprar» esse tempo de vida adicional, o que agravaria as desigualdades, perspetiva o escritor Gonçalo M. Tavares. «Não se trata de alguém que perdeu uma perna e vai substituí-la por uma prótese. São próteses internas, como uma espécie de coração artificial. Fala-se de próteses destinadas a evitar acidentes vasculares cerebrais (AVC). Portanto, trata-se de micromáquinas que são inseridas no organismo e que permitem que as pessoas prolonguem o seu tempo de vida», relata o autor, que tem pensado sobre o impacto da IA na humanidade. «O que me parece mais terrível é ao nível das desigualdades entre pobres e ricos», esclarece.
Nestes últimos dois casos, é importante notar, contudo, que está em causa não apenas um fosso crescente entre o poder das empresas e o poder das pessoas, mas também uma desigualdade flagrante entre grupos da população, que é, concorda Dora Kaufman, outro dos riscos dos avanços tecnológicos em curso.
GONÇALO M. TAVARES © Foto de cortesia
Tobias Gutmann não é um caricaturista comum. Depois de anos a transformar os rostos de milhares de pessoas em arte abstrata, decidiu criar um gémeo digital, isto é, um robô com IA que produz retratos com base nos desenhos que o artista criou desde o início da década passada. Chamou-lhe Sai Bot, revertendo a ordem das letras do seu próprio nome. «Começou como algo engraçado. Mais como piada. Mas, depois, à medida que se foi desenvolvendo, percebi que poderia ser algo interessante, até como motivo de debate», conta. «O que acontece quando uma forma artística ou prática artística é totalmente deixada à IA? Perdemos algo? Ganhamos algo?», interroga Tobias Gutmann, que apresentou o seu trabalho em Portugal, incluindo os retratos criados de forma puramente tecnológica, na primavera deste ano, na exposição I can do this too! Says the AI! (Também posso fazer isso, diz a IA, numa tradução direta).
«De certa forma, o Sai Bot é um espelho de mim mesmo», sublinha o suíço, rejeitando, contudo, que tenha sido ou possa ser substituído enquanto artista por esta ferramenta tecnológica. É que o robô em questão até pode recriar «o estilo do desenho» do suíço, mas a alma artística não se esgota na produção, diz o mesmo. «Acho que a parte mais importante do que um artista faz é refletir sobre o que está a acontecer através da prática artística, refletir sobre o mundo e refletir sobre se sequer faz sentido traçar retratos. E isso a IA ainda não aprendeu», salienta Tobias Gutmann.
Mas ao contrário deste artista, milhões de trabalhadores das mais variadas áreas, do transporte à indústria, passando pela agricultura, podem recear pelos seus empregos, face aos avanços da IA. E esse novo desemprego poderá agravar a desigualdade social, antecipam os especialistas.
A IA, declara a investigadora Dora Kaufman, é uma «tecnologia complexa» que, por um lado, eliminará empregos e, por outro, criará novas funções. Estas últimas não compensarão, porém, a referida perda de postos de trabalho, porque exigem competências com as quais os trabalhadores não estão equipados. «Acho falacioso dizer que o número de funções novas vai compensar as que estão a ser automatizadas por IA. Não tem o menor sentido», afirma a especialista, que atira também que não concorda com a perspetiva de que a tecnologia irá libertar talento para tarefas mais criativas. Antes, há o risco dos trabalhadores cujos empregos foram eliminados ficarem no desemprego, «porque não têm formação» para as funções emergentes.
Mas ao contrário deste artista, milhões de trabalhadores das mais variadas áreas, do transporte à indústria, passando pela agricultura, podem recear pelos seus empregos, face aos avanços da IA. E esse novo desemprego poderá agravar a desigualdade social, antecipam os especialistas.
A IA, declara a investigadora Dora Kaufman, é uma «tecnologia complexa» que, por um lado, eliminará empregos e, por outro, criará novas funções. Estas últimas não compensarão, porém, a referida perda de postos de trabalho, porque exigem competências com as quais os trabalhadores não estão equipados. «Acho falacioso dizer que o número de funções novas vai compensar as que estão a ser automatizadas por IA. Não tem o menor sentido», afirma a especialista, que atira também que não concorda com a perspetiva de que a tecnologia irá libertar talento para tarefas mais criativas. Antes, há o risco dos trabalhadores cujos empregos foram eliminados ficarem no desemprego, «porque não têm formação» para as funções emergentes.
Per Molander, autor do livro The Origins Of Inequality – publicado pela Springer Nature Switzerland AG e ainda não traduzido para português – e antigo consultor do Banco Mundial, da Organização para a Cooperação e Desenvolvimento Económico (OCDE), da Comissão Europeia e do Governo da Suécia, concorda com essa visão: «Não estamos a falar do mesmo tipo de empregos [entre os novos postos e os postos extintos]. Se empregos rotineiros que são executados por mão de obra com qualificações baixas a médias forem substituídos por sistemas de IA, isso aumentará a procura por pessoas com competências informáticas, o que não ajudará quem tiver sido despedido», sublinha.
O especialista vai mais longe e observa que há um elo, regra geral, entre o tipo de investimento e a desigualdade. Ora, defende Per Molander, investir em capital humano – no conhecimento de que são dotados os humanos – tende a diminuir a desigualdade.
Em contraste, investir em máquinas tende a levar a um agravamento desse fosso.
«Uma vez que o investimento em IA é em máquinas, a projeção por defeito é a de que a desigualdade irá aumentar, a menos que medidas intencionais sejam tomadas para contrariar este cenário», avisa, insistindo que a maioria das pessoas que perderá os seus empregos por causa da tecnologia terá dificuldade em fazer a transição para novas funções.
PER MOLANDER © Sofia Runarsdotter
A propósito, Dora Kaufman entende que a reconversão dos trabalhadores entre funções dependerá (e muito) das políticas públicas implementadas. «São essenciais, nomeadamente em termos de educação e formação. É preciso criar formação técnica de alta qualidade. É preciso também mudar o ensino básico e preparar os alunos para esta nova realidade», apela a especialista. «Não é um processo simples», reconhece, contudo, a investigadora.
Também a eurodeputada social-democrata Maria da Graça Carvalho, que está envolvida no trabalho em curso de preparação da regulamentação comunitária da IA, prevê que a capacitação dos trabalhadores será «a forma mais eficiente de atacar esta desigualdade» criada pelas mudanças causadas pela tecnologia no mundo do trabalho. «É preciso não deixar ninguém para trás. Acho que se deve investir em toda a gente», realça, referindo-se tanto a quem está à procura de um emprego, como a quem tem trabalho, mas não está ainda preparado para a revolução à espreita.
Além disso, há que «preparar as nossas escolas, em todos os grupos de ensino», considera a eurodeputada. No caso das universidades, diz, é preciso adaptar os programas de estudo «a esta nova realidade em todas as áreas». «A transição é difícil, porque não há muitos professores», analisa a parlamentar, sublinhando que é desafiante atrair quem tem as competências certas para a docência, porque estas são pessoas também muito disputadas pelas empresas privadas e, nesses casos, os salários são bem mais robustos.
O Gerador questionou também a eurodeputada comunista Sandra Pereira, que tem acompanhado igualmente a discussão em torno da IA a nível comunitário, mas não foi possível obter resposta até ao fecho desta edição.
MARIA GRAÇA CARVALHO © Foto de cortesia
Ainda que hoje a presença das mulheres no ensino superior seja forte, a sua participação em cursos ligados à tecnologia continua baixa. No boletim estatístico de 2021, a Comissão para a Cidadania e Igualdade de Género (CIG) – um organismo nacional criado há quase meio século para promover a diminuição do fosso entre homens e mulheres – alertava que, embora as raparigas estejam em número superior aos rapazes na generalidade das áreas do ensino superior – mais de metade dos matriculados, no total, são do género feminino –, continuam a estar em minoria em determinados cursos, nomeadamente nas tecnologias de informação. Nessa área, as mulheres representam apenas 17 % dos alunos inscritos.
E isso poderá levar a um agravamento da desigualdade entre elas e eles, num futuro que os especialistas projetam que será muito influenciado pelas ferramentas tecnológicas. O aviso é feito pela eurodeputada Maria da Graça Carvalho, que sublinha que há mesmo o risco de um retrocesso no caminho rumo à igualdade entre géneros. Uma vez que a presença do género feminino nos cursos superiores ligados à tecnologia é fraca, elas poderão, por um lado, estar mais expostas ao desemprego e, por outro, conseguindo um trabalho, tenderão a ser posições menos valorizadas nesse mundo transformado pela IA e, portanto, terão acesso a salários menos interessantes. «Estávamos a caminhar para uma igualdade entre géneros, mas, neste momento, nesta questão, se nada for feito, pode haver um retrocesso», avisa. «Tem de haver medidas proativas, tanto a nível europeu, como dos estados-membros e dos próprios professores, para chamar a atenção para esta questão», salienta.
Além do desemprego, da formação e do fosso entre géneros, há ainda o risco de a IA perpetuar estereótipos, nomeadamente, de género ou etnia, destaca a eurodeputada. Isto porque essa tecnologia parte de bases de dados, e estas, por vezes, já têm esses estereótipos incorporados. «Todos estes sistemas são treinados com base em dados, que são gerados [a partir] da nossa atividade. Tudo o que de bom existe e tudo o que de menos bom existe na nossa sociedade vai refletir-se nesses dados. Se vamos criar sistemas em cima desses dados, tudo aquilo a que chamamos enviesamentos vão estar presentes, e isso vai propagar-se aos algoritmos», perspetiva, na mesma linha, Pedro Gaspar, da APDSI (Associação para a Promoção e Desenvolvimento da Sociedade da Informação).
Por isso, Maria da Graça Carvalho apela a que se faça «uma verificação das bases de dados, para ver se representam, na verdade, a amostra da sociedade». Afirma que há também que incutir diversidade nas próprias equipas que trabalham nestas tecnologias, diz a mesma responsável. «Está provado que as equipas que trabalham na produção das bases de dados têm influência. Portanto, se a equipa não é mista ou diversificada, há menos preocupação em que a sua base de dados fique diversificada», explica.
«Fala-se que precisamos de um grande volume de dados para treinar estes sistemas, mas não é só volume. É também diversidade. Os dados têm de ser diversos. Caso contrário, vamos ter enviesamentos», confirma Pedro Gaspar. E exemplifica: «Se eu, na minha empresa de recursos humanos, vou usar um algoritmo para ajudar a filtrar os candidatos, se o treinar com base na minha força de trabalho – na qual, muito provavelmente, há mais pessoas do sexo masculino, especialmente em áreas tecnológicas –, vai fazer com que o sistema discrimine as mulheres.»
Os especialistas defendem, assim, que a IA deve refletir não necessariamente o que já existe no mundo real – já que este sofre ainda de graves problemas de desigualdade –, mas antes tentar uma aproximação aos valores desejáveis. «Os sistemas têm de refletir o que queremos que seja o nosso futuro. Aí, sim, os algoritmos vão ajudar-nos a caminhar nessa direção», realça o responsável da APDSI. A regulamentação que a União Europeia está a preparar na área da IA não endereça, contudo, de modo direto esta questão, ainda que trate de outros aspetos que tentarão tornar esta tecnologia não só mais segura, mas também respeitadora dos direitos humanos fundamentais.
Ainda que a IA faça correr tinta nos quatro cantos do mundo, a sua regulamentação ainda é inexistente. A União Europeia está, no entanto, a caminho de mudar isso: está a preparar a primeira lei abrangente dedicada a estas tecnologias, que poderá entrar em vigor já no próximo ano.
Desde meados de 2021 que o regulamento em questão está a ser trabalhado pelos responsáveis europeus, mas este ano tem sido marcado por passos particularmente importantes nesta jornada. Por exemplo, em junho, o Parlamento Europeu deu «luz verde» à sua posição final sobre a matéria, que define que a prioridade é garantir que os sistemas de IA utilizados no espaço comunitário são seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. A abordagem defendida pelos eurodeputados admite, contudo, obrigações diferentes consoante o nível de risco associado a cada variação desta tecnologia.
Há quatro degraus nessa escada (ver gráfico): risco mínimo (casos para os quais não estarão previstas obrigações específicas), limitado (casos nos quais a transparência será o requisito chave), elevado (casos nos quais haverá regulamentação a obedecer, mesmo antes de chegar ao mercado) e inaceitável (casos em que a tecnologia será proibida).
PIRÂMIDE DE RISCO | Fonte: Comissão Europeia
No que diz respeito ao risco mínimo, estão em causa, por exemplo, sistemas de filtragem de SPAM de correio eletrónico, isto é, de separação de correio eletrónico indesejado ou inadequado. No caso destes sistemas, a intenção é deixar que sejam desenvolvidos e usados dentro do espaço comunitário sem que tenham de cumprir nenhuma obrigação legal extra face ao atual enquadramento. O Parlamento Europeu quer, porém, que sejam criados códigos de conduta para que os fornecedores adotem voluntariamente as precauções que serão, em contraste, impostas aos sistemas considerados de elevado risco.
Já no caso dos sistemas de IA considerados de risco limitado, deverão ter de ser cumpridos requisitos mínimos de transparência, isto é, o utilizador deverá ser alertado para o facto de estar a interagir com um sistema de IA, de modo que possa tomar decisões informadas. É o caso, por exemplo, de tecnologias que geram ou manipulam imagens, áudio e vídeo, como os chamados deepfake. Neste âmbito, cabem também os chatbots.
De notar que no caso da IA generativa – como o ChatGPT e o Bing –, os requisitos de transparência serão os seguintes: não só sinalizar que o conteúdo é gerado por IA, mas também conceber o modelo de modo que não gere conteúdos ilegais e publicar resumos dos dados protegidos por direitos de autor utilizados pela máquina no seu processo de aprendizagem.
Por outro lado, serão considerados de risco elevado os sistemas de IA que podem afetar negativamente a segurança, a saúde, o ambiente ou outros direitos fundamentais dos cidadãos. É o caso, por exemplo, dos sistemas de IA utilizados para influenciar os eleitores e, consequentemente, os resultados das eleições e os sistemas de recomendação recorrentes nas redes sociais.
Por outro lado, serão considerados de risco elevado os sistemas de IA que podem afetar negativamente a segurança, a saúde, o ambiente ou outros direitos fundamentais dos cidadãos. É o caso, por exemplo, dos sistemas de IA utilizados para influenciar os eleitores e, consequentemente, os resultados das eleições e os sistemas de recomendação recorrentes nas redes sociais.
No caso destes sistemas de IA considerados de risco elevado, não basta alertar o consumidor da presença dessa tecnologia. Ao invés, passará a ser obrigatório que sejam avaliados antes sequer de chegarem ao mercado, bem como durante todo o seu ciclo de vida.
Haverá ainda sistemas de IA cujo risco se considerará inaceitável, indica a posição aprovada pelo Parlamento Europeu. São aqueles que são considerados uma ameaça às pessoas e que serão, por isso, proibidos. É o caso de brinquedos ativados por voz que incentivam «comportamentos perigosos nas crianças» – manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis – e de sistemas de pontuação social, isto é, de classificação de pessoas com base no seu comportamento, estatuto socioeconómico ou características pessoais.
O Parlamento Europeu defende também que os estados-membros devem identificar uma ou mais autoridades competentes – nomeadamente organismos de supervisão nacional –, que fiquem responsáveis por acompanhar a aplicação do novo regulamento, e que deve ser criado, ao nível comunitário, o Conselho Europeu da IA, composto por representantes dos 27 e da Comissão Europeia.
Na posição aprovada pelos eurodeputados, fica, assim, claro que os sistemas tecnológicos em questão devem ser supervisionados por pessoas para evitar eventuais resultados prejudiciais, em vez de serem inteiramente automatizados. E estabelece-se também que é preciso fixar uma definição uniforme e neutra da IA, para que seja aplicada a futuros sistemas, evitando-se, deste modo, que fique rapidamente obsoleta.
E agora que a discussão no Parlamento Europeu chegou a bom porto, estão já em curso as negociações com o Conselho Europeu. «Penso que irão durar até ao final do ano. A presidência espanhola do Conselho da União Europeia quer acabar [esta discussão] até ao fim do ano», explica a eurodeputada Maria da Graça Carvalho, que fez parte da comissão especial que, durante 12 meses, esteve a analisar os riscos da IA, previamente ao arranque do processo de legislação.
Segundo a parlamentar, se a negociação não terminar até ao fim do ano, poderia ficar em risco. Isto porque se aproxima um período eleitoral a nível comunitário e a composição dos órgãos europeus poderá sofrer alterações. Por outro lado, ficando terminadas as negociações no prazo pretendido, o regulamento pode entrar em vigor já em 2024, indica a mesma.
Entre em vigor de uma vez no próximo ano ou por etapas, certo é que esta legislação faz da União Europeia pioneira no estabelecimento de regras quanto à IA. «É um fator de competitividade. É uma posição que queremos que seja de liderança a nível mundial e que os outros se inspirem, como já aconteceu para o regulamento da proteção de dados», realça Maria da Graça Carvalho.
Se ser pioneiro numa determinada área pode dar uma vantagem competitiva, é importante não esquecer também que desbravar terreno traz sempre consigo desafios e dificuldades acrescidas. A regulamentação da IA não escapa a essa dinâmica. «Não podemos não regular, mas não podemos ser ingénuos ao ponto de achar que vamos apanhar tudo no início», avisa o professor João Castro.
Na visão deste especialista, é importante que a regulamentação esteja, então, «em permanente atualização», até porque ainda não é possível prever com rigor de que modo a IA vai mudar o modo que vivemos. Aliás, declara João Castro, as empresas que estão empenhadas no desenvolvimento destas tecnologias estão numa «corrida desenfreada a todo o vapor», sem compreenderem totalmente as consequências do que estão a criar.
Da parte dos responsáveis europeus, Maria da Graça Carvalho garante que a flexibilidade é uma das preocupações que têm sido tidas em conta, para assegurar, por um lado, que as regras discutidas não se tornam rapidamente ultrapassadas e, por outro, que não se ponham barreiras à investigação científica e à inovação. «A legislação prevê o que se chama um regulatory sandbox, que são áreas em que os estados-membros podem considerar pilotos, nas quais implementam novas aplicações tecnológicas e para as quais se podem fazer exceções, em termos de regulamentação, para ver como é que a tecnologia se desenvolve», sublinha a eurodeputada. No mesmo sentido, Pedro Gaspar, da APDSI, observa que «a regulação não significa necessariamente controlo. Não tem que ver com controlar o que as empresas fazem ou deixam de fazer. Tem que ver com o enquadramento, porque faz sentido existir esse enquadramento».
Já a professora Ana Paiva avisa que a legislação pode mesmo limitar a criação de empresas focadas nesta tecnologia no espaço europeu, sendo estas levadas a estabeleceram as suas sedes nos Estados Unidos ou na China, isto é, em países que ainda não têm regras claras sobre esta matéria e que, portanto, lhes dão maior liberdade criativa. A propósito, Sam Altman, da OpenAI, tem defendido que a tecnologia em causa deve ser regulada, alertando para os riscos para a humanidade que lhe são inerentes, mas, em contraste, não garante que o ChatGPT poderá continuar a operar na Europa, se as regras forem muito apertadas.
«Acho que a legislação é superimportante, para garantir que não são feitas aplicações e sistemas que destroem a democracia e que afetam as pessoas», ressalva, ainda assim, Ana Paiva, que atira, porém, que não basta regulamentar a nível da UE. Nesse âmbito, António Pele destaca também a importância de haver regulamentação com participação de agências internacionais, referindo, por exemplo, que no seio da Organização das Nações Unidas (ONU) seria possível chegar a uma proibição relativamente a vários desenvolvimentos da IA, nomeadamente armas automatizadas.
João Luís Cordovil concorda com a necessidade de as regras serem também estabelecidas a um nível mais global do que a União Europeia. «Devia ou deve existir uma carta de deveres da IA da ONU», apoia o coordenador científico do Centro de Filosofia das Ciências da Universidade de Lisboa.
«Não podemos parar [o desenvolvimento da IA]. O que pode haver é uma tentativa de regulamentar, mas ao nível da humanidade», insiste, detalhando que deveriam ser envolvidos nesse processo todos os países e grandes empresas. «Um acordo com os limites e uma clara consequência para quem ultrapassar esses limites. Não pode ser um país a regulamentar de uma maneira, outro país a regulamentar de outra. Isso não tem qualquer sentido. Tem de ser um acordo da própria humanidade», sublinha o especialista.
Mas há um conjunto de nomes importantes no mundo da tecnologia que considera que é mesmo preciso parar temporariamente o desenvolvimento da IA, para que se estabeleçam protocolos de segurança que evitem que os piores receios se tornem realidade.
Elon Musk, líder da Tesla, SpaceX e do X (antigo Twitter), Steve Wozniak, cofundador da Apple e vários engenheiros de empresas como a Microsoft, a Google e a Amazon assinaram uma carta aberta na qual alertaram para os riscos do uso acelerado da IA, admitindo que a corrida pelo desenvolvimento destes sistemas está fora de controlo e pedindo, assim, a sua suspensão.
«Não há tecnologia nenhuma, mesmo a mais grotesca que se possa pensar, que tenha existido e que não tenha havido alguém que a tenha usado. Sejam clones humanos, sejam transplantes de cabeça. As coisas mais horripilantes. Neste caso da IA, ainda é pior», acrescenta João Luís Cordovil. Porquê? Ora, estas tecnologias, entende, são «facilmente mascaradas com a otimização do mercado ou a otimização da produção», o que tende a ser interpretado como algo positivo. «Vamos aceitá-las cada vez mais sem grandes problemas. Portanto, haverá certamente uma tendência grande para não querer regulamentar demasiado», projeta, rematando, o especialista.