A Evolução Tecnológica, a Inteligência Artificial e a Guerra~ 7 min

Por José Marinho

A evolução tecnológica e a guerra sempre andaram de mãos dadas, da descoberta da pólvora ao desenvolvimento de armas nucleares, dos radares às comunicações por rádio avançadas e à Internet. 

Nas últimas décadas, desde a altura da Guerra Fria, a Inteligência Artificial (IA) tem sido fundamental para o desenvolvimento de tecnologias como drones, veículos terrestres autónomos e sistemas de cibersegurança e vigilância. Esta expansão contínua e integração de IA nas operações militares levantam sérias questões éticas, legais e de violações dos direitos humanos – e as mais recentes notícias sobre o despedimento de trabalhadores da Google confirmam as preocupações éticas sobre o uso dessas tecnologias para fins militares. 

Este é o exemplo perfeito: depois de anos de negação perante os seus funcionários e a opinião pública, foram divulgadas informações que confirmam que o regime sionista tem utilizado a infraestrutura da Google (pelo menos nos últimos 3 anos) para vigiar, controlar e identificar alvos.

Nimbus

Estas informações são apenas a confirmação de que as preocupações de funcionários e activistas aquando do anúncio do projecto Nimbus, em 2021 – que acusavam a empresa tecnológica de ajudar o governo Israelita a perpetuar a ocupação da Palestina – eram, de facto, válidas. 

O documento revelado pela revista norte-americana Times levanta sérias preocupações sobre o uso da infraestrutura tecnológica da Google em operações militares e de vigilância. A existência de uma zona exclusiva na Google Cloud dedicada ao regime sionista sugere uma colaboração directa entre a empresa de tecnologia e as forças de ocupação para o desenvolvimento e implementação de ferramentas de inteligência artificial e big data para fins militares. 

No início de 2024, em Janeiro, a Google demitiu 28 funcionários que se manifestaram contra o projecto e em Abril, após novas manifestações, o número de despedimentos subiu para 50.

Trabalhadores da Google protestam nos escritórios da empresa em Sunnyvale, Califórnia, a 17 de Abril [Fonte]

Lavender

No início de Abril, a revista israelita 972+ revelou a existência da Lavender, uma IA israelita que gera listas de alvos para serem assassinados e que “desempenhou um papel central no bombardeamento sem precedentes de palestinianos” durante a campanha genocida em curso na Faixa de Gaza.

Nas primeiras semanas após o 7 de Outubro, a Lavender identificou 37 mil palestinianos como suspeitos de serem “militantes”, tornando-se assim potenciais alvos para ataques aéreos. Sistemas automatizados adicionais são usados para seguir os indivíduos em causa e levar a cabo os bombardeamentos depois de estes entrarem nas suas casas, normalmente em momentos em que as suas famílias também estão presentes. O artigo publicado pela 972+ alega que, frequentemente, os agentes humanos envolvidos no processo servem apenas como um “carimbo de aprovação” para as decisões da Lavender, dedicando a cada alvo apenas 20 segundos antes de autorizar o seu bombardeamento.

E, se é certo que Israel usa esta IA na sua campanha genocida contra Gaza, é importante ter em conta que este artigo é publicado sob censura militar, o que significa que oficiais das IDF autorizaram que detalhes sobre esta IA fossem divulgados, e quais. Várias vozes vêm alertando para o perigo de a Lavender ser utilizada como uma forma de desresponsabilizar as cadeias de comando e execução das forças israelitas pelas atrocidades cometidas contra a população palestiniana.

Estudante carrega cartaz em que se lê “Lavender [lavanda] não é uma erva do jardim! Diz não às listas de morte geradas por IA!” durante um protesto na Georgian Southern University, em Savannah, a 2 de Maio de 2024.

Ferramentas da ocupação e do genocídio

A utilização destas tecnologias pelo regime sionista levanta uma série de preocupações significativas sobre violações de direitos humanos e sobre os conflitos na região. 

Para que fins são, então, utilizadas as tecnologias e a IA neste contexto?

  • Sistemas autónomos: como drones ou veículos autónomos que realizam missões de reconhecimento, ataque e transporte sem a necessidade de intervenção humana, ou mesmo sistemas de defesa antimísseis, como a famosa Iron Dome, que interceptam e destroem mísseis e bombas de artilharia.
  • Análise de dados e sistemas de vigilância: desde a análise de horas de filmagens de drones e câmaras de segurança, de imagens de satélite e das redes sociais para identificar automaticamente objectos, pessoas ou qualquer tipo de actividade, a ferramentas de reconhecimento facial, com a possibilidade de rastrear alvos mesmo no meio de multidões e de seguir todos os seus movimentos, ou ainda sistemas de vigilância em massa.

    Tudo isto levanta várias questões éticas sobre a privacidade, transparência e liberdade de expressão e de reunião.
  • Mas temos ainda outro problema, a Discriminação e Viés Algorítmico: os sistemas de IA, para além de tenderem a ser tão tendenciosos e discriminatórios quanto os seus criadores, são ainda treinados com conjuntos de dados, dados esses que muitas vezes também contêm vieses ideológicos e discriminatórios, o que pode levar a decisões ainda mais discriminatórias. Isto acontece porque a IA aprende com padrões que observa nos dados analisados e, se esses padrões incluem vieses e actos discriminatórios normalizados, o sistema de IA também os incluirá e permitirá, por exemplo, a perseguição de minorias.

Desregulação é carta branca

A falta de transparência, bem como de responsabilização e prestação de contas em torno do uso dessas tecnologias, comprometem a segurança e a privacidade das populações em todo o mundo, existindo uma grande urgência de regulamentações mais rígidas e mecanismos de supervisão e auditoria rigorosos para garantir que a IA e a tecnologia no geral sejam usadas de maneira responsável e sem violações dos direitos humanos.

As consequências destas ‘faltas’ são bem visíveis – há mais de 50 anos que Israel usa a Palestina como o laboratório perfeito para o seu complexo militar e tecnológico. A vigilância, as demolições de casas, o encarceramento indefinido e a brutalidade transformaram-se em ferramentas de alta tecnologia que continuam a impulsionar o etnonacionalismo israelita. Mas a utilização destas ferramentas não se cingirá à Palestina ocupada.

O livro The Palestine Laboratory: How Israel Exports the Technology of Occupation Around the World, do jornalista independente Antony Loewenstein, dá-nos uma visão bem mais detalhada de como Israel faz negócio com o apartheid: desde o software Pegasus, que invadiu os telefones de Jeff Bezos e Jamal Khashoggi, às armas vendidas ao exército de Mianmar, que assassinou milhares de Rohingya; dos drones usados pelo Azerbaijão na limpeza étcnica do Nagorno-Karabakh aos drones usados pela União Europeia para monitorizar, no Mediterrâneo, refugiados que acabam afogados. Israel tornou-se um líder global de tecnologia de espionagem e armamento que alimenta os conflitos mais brutais do mundo. 

A comunidade global deve permanecer vigilante. Temos o dever cívico de promover o uso ético da tecnologia e de não compactuar com empresas que apoiem regimes de opressão e genocídio. 

Centenas de manifestantes, incluindo trabalhadores da Google, concentrados em frente aos escritórios da empresa em São Francisco para exigir o fim da colaboração com o governo israelita, a 14 de Dezembro de 2023 [Fonte]

Gostaste do artigo? Considera subscrever a newsletter. Permite-nos chegar a ti directamente e evitar a censura das redes sociais.

Sigam o nosso trabalho via Facebook, Twitter, Youtube, Instagram ou Telegram; partilhem via os bonitos botões vermelhos abaixo.

Right Menu Icon