|Maria João Rendas

Alguns comentários ao livro «Inteligência Artificial Generativa»

Alimentar a miragem de um crescente recurso à IA, sem alertar para as consequências desastrosas que pode trazer para o planeta, faz lembrar a leviandade das campanhas das indústrias automóvel, petroleira e do tabaco, para citar apenas alguns exemplos.

CréditosTheDigitalArtist / Pixabay

Num momento em que as mais fantasistas expectativas e infundados medos são veiculados pelas redes sociais e alguns órgãos de imprensa sobre a Inteligência Artificial (IA), é de saudar o aparecimento de uma obra destinada a um público de não-especialistas, que apresenta de uma forma acessível, evitando formalismos matemáticos, os principais conceitos envolvidos na concepção destas tecnologias, em particular da IA generativa. 

O livro1 começa por lembrar alguns dos principais marcos da história da computação, culminando na apresentação dos modelos de IA generativa, tendo antes introduzido vários conceitos chave, como a aprendizagem automática, a partir de dados, e  os modelos conexionistas. A escolha dos assuntos abordados é pertinente, embora pudesse eventualmente ter sido útil salientar a diferença entre problemas em universos finitos (para os quais os métodos simbólicos da GOFAI são bem adaptados) e aqueles que envolvem universos infinitos, bem como introduzir, mesmo que intuitivamente, o mecanismo de aprendizagem progressiva a partir de observações há muito fornecido pelos métodos de inferência Bayesianos. Mas não é nosso intuito exprimir aqui uma opinião crítica sobre os capítulos «técnicos» do livro, que são, na realidade, a sua principal razão de ser. O livro aborda nos seus dois últimos capítulos os riscos e desafios postos pela IA e os seus possíveis cenários de evolução futura. É sobre estes dois últimos capítulos que se apresentam aqui alguns comentários. Os vários impactos da IA, presentes e futuros, e tanto sobre cada indivíduo como sobre os valores e as regras do contrato social democrático que nos liga a todos, merecem na nossa opinião uma discussão mais profunda e abrangente do que aquela que é feita no livro, e levantam-se aqui algumas questões que nos parecem importantes.

O livro defende uma visão neutra da tecnologia, lembrando que todos os artefactos tecnológicos podem ser usados para bons ou maus fins («não existe nenhuma tecnologia que não possa ser usada para o mal», pg 119). Na realidade, os actuais mecanismos de financiamento de I&D2 levam à concentração da inovação nas áreas que servem os interesses capitalistas dominantes, agravando a concentração de poder (riqueza e conhecimento) num número restrito de actores, na esmagadora maioria privados. Uma das áreas em que se teme o aparecimento de «más» aplicações da IA é na indústria do armamento. Abrindo a porta a tecnologias de uso «dual» (que podem ser usadas tanto em aplicações civis como militares), os  próximos programas europeus de ciência preparam-se para abandonar a proibição em vigor há 40 anos de financiar aplicações militares. Sob a influência de vários países, em particular a França, o orçamento do próximo programa-quadro da UE poderá vir a ser concentrado num punhado de sectores: inteligência artificial, energia, biotecnologia, computação quântica e tecnologias espaciais, isto é, as áreas mais directamente exploráveis pela indústria de defesa3, mostrando que as apreensões sobre os possíveis efeitos devastadores da IA são, infelizmente, fundamentadas.

«Os vários impactos da IA, presentes e futuros, e tanto sobre cada indivíduo como sobre os valores e as regras do contrato social democrático que nos liga a todos, merecem na nossa opinião uma discussão mais profunda e abrangente do que aquela que é feita no livro (...).»

 

O capítulo Riscos e Desafios identifica vários riscos associados à disseminação em larga escala das tecnologias de IA, evocando tanto usos da IA que põem em causa direitos fundamentais4 — por exemplo implementações de controlo e avaliação de trabalhadores, de manipulação da opinião, ou de vigilância do espaço público — como os possíveis efeitos de uma adopção generalizada da IA sobre a estrutura sócio-económica, ameaçando postos de trabalho e contribuindo in fine para o agravamento das desigualdades.

 A União Europeia é talvez a região do globo mais avançada em termos de regulação das tecnologias digitais, e o IA Act aprovado pelo Parlamento Europeu e pelo Conselho Europeu (em Junho de 2024) é um passo importante, estabelecendo limites à utilização destas tecnologias, centrado na prevenção de possíveis violações de direitos fundamentais. Sendo por um lado indiscutível a importância deste tipo de regulamentações, sabemos bem que a existência de leis não impede situações ou actos «ilegais». É ainda necessário promover a educação das populações aos seus direitos no mundo numérico para que as eventuais vítimas se possam reconhecer como tal. O livro do Professor Arlindo Oliveira é um contributo nesta direcção.

No entanto, três importantes consequências nefastas da IA, não hipotéticas mas já extensamente comprovadas, são passadas sob silêncio.

Talvez a mais importante seja o impacto ambiental destas tecnologias, cujo consumo de matérias primas —  água e energia —  é extremamente elevado. Como afirma Kate Crawford5, investigadora da USC (University of South California, EUA), «para muitos cidadãos a IA é misteriosa, abstracta e imaterial, refugiada na cloud, sendo a sua natureza profundamente extractivista, tanto de recursos naturais como humanos, escamoteada». Alimentar a miragem de um crescente recurso à IA, sem alertar para as consequências desastrosas que pode trazer para o planeta, faz lembrar a leviandade das campanhas das indústrias automóvel, petroleira, e do tabaco, para citar apenas alguns exemplos, silenciando ou mesmo negando as consequências dos seus produtos para a saúde pública. O consumo associado aos data centers tem vindo a aumentar fortemente e representa hoje uma percentagem significativa do consumo de energia, e directivas europeias em vigor obrigam os seus detentores são obrigados a disponibilizar de uma forma transparente informações actualizadas sobre a sua eficiência energética. Nos Estados Unidos, onde se espera que a utilização de IA duplique o consumo de energia dos data center nos próximos anos, várias centrais serão reactivadas ou construídas para poder responder às necessidades antecipadas

Assim, a adopção em larga escala destas tecnologias surge em clara contradição com os objectivos prioritários enunciados nos Acordos de Paris e no Plano Nacional Energia e Clima. Parece-nos urgente corrigir a actual ausência de regulação e exigir que, como é o caso em relação a muitos outros sectores, a implantação de novos sistemas, aplicações e serviços seja condicionada à avaliação da sua pegada ambiental e do seu efectivo interesse para a sociedade. Tal não será possível se os cidadãos não se implicarem activamente no controlo democrático da proliferação destas infra-estruturas tecnológicas.

Um segundo ponto prende-se com a ideia que o livro pode sub-repticiamente induzir de que estes sistemas aprendem «automaticamente» a partir de dados, sem intervenção humana. A realidade é bem menos reluzente, e cerca de 80% do tempo necessário para fazer estes sistemas funcionarem é fornecido por aqueles que são comumente chamados «trabalhadores do clic'», que etiquetam, filtram e avaliam os resultados preliminares dos modelos de IA. Sem eles, não há inteligência artificial. Maioritariamente localizados em países pobres da Ásia ou da África, em troca de salários miseráveis e sem condições de trabalho admissíveis, estes trabalhadores executam micro-tarefas que são a face invisível do futuro que nos é vendido «livre de trabalho»6. As novas tecnologias são igualmente utilizadas para facilitar a organização deste «mercado de trabalho» que muitos designam como «escravatura moderna»: o Amazon Mechanical Turk (AMT) de Jeff Bezos é uma das muitas plataformas através das quais as empresas de IA podem contratar, por preços irrisórios e sob condições indignas, trabalhadores que vivem em países pobres. É irónico que Bezos apresente este sistema num seminário no MIT como oferecendo a possibilidade de comprar «humano-como-serviço».

O nome da plataforma faz referência a uma ilusão mecânica construída no fim do século XVIII, que escondia dos seus utilizadores a operação por um humano. Podem ser encontradas na internet várias referências denunciando as condições de trabalho oferecidas por estas plataformas de crowdsourcing, em que os trabalhadores são a maioria das vezes considerados como empreendedores independentes. Mesmo o muito liberal jurista francês Alain Supiot, especialista do direito do trabalho, assinala na sua obra La Gouvernance par les nombres7, a adaptação das relações de trabalho aos imaginários científicos de cada era, sublinhando a forma como a economia de plataforma aproxima o mundo do trabalho das relações existentes na era feudal. Os utilizadores destas tecnologias devem ser alertados para o facto de que estão a sustentar um afastamento das recomendações da Declaração de Filadélfia — que institui o trabalho salarial como o futuro das sociedades modernas, afirmando explicitamente que o trabalho não é uma mercadoria — e a consolidação progressiva de uma nova ordem mundial em que a exploração do trabalho humano capacidade pela classe capitalista parece não ter limites.

Podem ser encontradas na internet várias referências denunciando as condições de trabalho oferecidas por estas plataformas de crowdsourcing, em que os trabalhadores são a maioria das vezes considerados como empreendedores independentes.»

 

Finalmente, parece-nos que numa apresentação ao grande público não se pode passar sob silêncio a perda de soberania associada ao recurso a tecnologias e infraestruturas que escapam em grande medida às regras de direito e ao controlo pelas instituições democráticas dos países em que operam. Este risco é tanto maior quando a operacionalidade de infra-estruturas críticas, como as redes de energia ou de abastecimento de água, redes de transportes ou os dados da administração pública pode estar em causa. Esta vulnerabilidade tem vindo a ser denunciada em diversos fora que têm vindo a reclamar a re-apropriação pública de todas as componentes que compõem a arquitectura dos modernos sistemas de informação e comunicação8.

O último capítulo do livro, O Futuro da Inteligência, aborda a questão da coexistência da humanidade com dispositivos artificiais cada vez mais «inteligentes». O autor adopta uma atitude quase sacrificial, imaginando que as novas máquinas inteligentes poderão de alguma forma ser o elo que se sucederá  ao homem na cadeia de evolução das espécies. Parece-me que em plena mutação, rápida e aparentemente descontrolada, das relações sociais e económicas do mundo capitalista, não são estas especulações evolucionistas o mais urgente e importante. Em termos de efeitos a longo prazo, são talvez mais preocupantes as modificações da nossa relação ao mundo e a nós próprios que podem decorrer da convivência continuada com estes sistemas. A facilidade de recorrer a simuladores da realidade baseados em vastos conjuntos de dados pode levar a uma alteração profunda da relação da sociedade à ciência, tal como Noam Chomsky alerta no artigo «The False Promise of ChatGPT»9.

Sendo a ciência um dos pilares das nossas civilizações, pôr em causa o seu papel como o instrumento fiável de compreensão do mundo terá com certeza consequências, hoje, imprevisíveis. Ao mesmo tempo, os efeitos sobre as capacidades humanas — de agência, de autonomia e de pensamento crítico e independente — de uma sistemática delegação a máquinas das tarefas que mobilizam as nossas capacidades cognitivas e sociais podem ser profundos. Quantos de nós somos hoje capazes de navegar sem auxílio dos sistemas baseados em GPS? Ler um artigo de jornal de mais de umas linhas? Quão forte é a nossa capacidade crítica face a uma página de Wikipedia?

«Num estado quase hipnótico, com uma percepção fractal do mundo em que várias "verdades" contraditórias entre si coexistem, tornamo-nos particularmente vulneráveis a técnicas de manipulação.»

 

A imersão permanente no mundo numérico tem já hoje impactos profundos sobre a consciência da nossa identidade e sobre a nossa vivência como membros da sociedade. O tempo de reflexão pessoal, de estabelecer uma percepção coerente do que nos rodeia e formar uma opinião crítica, tornou-se cada vez mais reduzido. No mundo do scroll infinito somos submetidos a uma avalanche de informações diversas, comutando rapidamente de um assunto a outro. Num estado quase hipnótico, com uma percepção fractal do mundo em que várias «verdades» contraditórias entre si coexistem, tornamo-nos particularmente vulneráveis a técnicas de manipulação. Esta visão particularmente angustiante da multiplicação das verdades a que assistimos é explorada no livro Hypnocratie10, que, paradoxalmente, resulta do diálogo entre um filósofo italiano e várias IA generativas. A consciência de que somos, potencialmente, cúmplices e vítimas deste regime de ingurgitação forçada de informação é o primeiro passo para evitar uma indigestão que nos pode ser, como sociedade, fatal. 

Os sistemas baseados em IA podem substituir humanos em tarefas penosas ou perigosas, e são capazes de resolver inúmeros problemas com um desempenho claramente superior aos métodos tradicionais. A possibilidade de predição, usando modelos de maior complexidade e livres de hipóteses simplificadoras e irrealistas podem ser usados para o bem comum, como instrumentos de ajuda à decisão na distribuição dos recursos existentes, humanos e materiais, com o objectivo de construir uma sociedade mais justa e com melhor qualidade de vida. Este texto não deve ser lido como um manifesto anti-IA, mas antes como uma defesa da criação de  mecanismos de controlo e regulação democrática que garantam que o seu desenvolvimento e aplicação resulte de facto num mundo melhor.

Tópico

Contribui para uma boa ideia

Desde há vários anos, o AbrilAbril assume diariamente o seu compromisso com a verdade, a justiça social, a solidariedade e a paz.

O teu contributo vem reforçar o nosso projecto e consolidar a nossa presença.

Contribui aqui