Depois de uma longa semana de negociações, com a recusa de alguns Estados, todos os detalhes sobre elementos e possíveis medidas para um acordo sobre armas autónomas foram removidos do último relatório do Grupo de Peritos Governamentais.
.
.
Fotografia publicada na página de Facebook de Stop Killer Robots.

 

Filipe da Silva Costa

 

Mas qual é o país que quer possuir tais armas, então a resposta é mais ambígua. O último relatório do Grupo de Peritos Governamentais (Gouvernamental Group of Experts, GGE) reflete isso. Após uma semana (25-29 de julho) de discussão no Palácio das Nações, ONU, Genebra, o relatório adotado é esvaziado, sem conclusão ou compromissos significativos

Armas autónomas letais

Armas autónomas letais (LAWs) são um tipo de sistema militar autónomo que pode procurar e atingir alvos de forma independente com base em restrições e descrições programadas. As LAWs também são conhecidos como robôs assassinos.

As armas autónomas existem há muitos anos; por exemplo, minas terrestres desencadeiam e matam ou causam ferimentos sem qualquer ação humana. Com as tecnologias emergentes, incluindo a IA, entendemos o interesse de certos Estados para estas armas.

Desde os anos 70, os EUA usam o Phalanx CIWS, que pode identificar e atacar mísseis que se aproximam. Com a IA, as suas capacidades são aumentadas! Continuando com as minas, as minas antipessoais da Rússia do tipo POM-3 são particularmente mortais. Elas são disseminadas no teatro de operações, mas não explodem imediatamente. Equipadas com sensores, elas ativam-se com um atraso e sobem para o ar antes de explodir causando vários estragos, que podem ser fatais num raio de 16 metros.

Estas minas estão equipadas com software que lhes permite “decidir” se vão explodir ou não, dependendo da identidade das pessoas ou equipamentos que se aproximem. Existem, infelizmente, tantos outros sistemas que se tornaria extenso demais citar aqui. E, para concluir esta parte, em 2020 um Kargu 2 caçou e atacou um alvo humano na Líbia. De acordo com um relatório do Conselho de Segurança da ONU publicado em março de 2021,
esta pode ter sido a primeira vez que um robô assassino autónomo com armamento letal atacou seres humanos.

Entendemos rapidamente todos os possíveis problemas éticos e legais. Sistemas autónomos podem cometer erros; quem é o responsável nesse caso? Assim como as minas mataram milhões de civis, os novos sistemas podem ter vias de implementação e matar indiscriminadamente. A gama de potenciais problemas é extensa.

Uma convenção em desaceleração

Ao longo de nove anos, a Convenção sobre Certas Armas Convencionais (The Convention on Certain Conventional Weapons, CCW), também conhecida como Convenção sobre Armas Desumanas, tentou regulá-la com o seu GGE. Nos casos mais ambiciosos, tratar-se-ia de acordar um tratado, ou outro instrumento internacional, que garantisse a proibição de uma arma poder operar de forma autónoma, ou seja, sem a intervenção de supervisão humana.

Muitos Estados, africanos, latino-americanos e europeus, incluindo Portugal, estão agora a defender essa proibição total. A resposta é menos clara para outros Estados, incluindo os EUA e outros membros da NATO. Eles concordam com a proibição de sistemas de armas específicos, bem como com uma certa regulamentação, uma estrutura de certificações, mas recusam um quadro jurídico vinculativo. Por último, a Rússia está a abrandar todas as negociações e a reduzir o seu conteúdo.

Rússia e o jogo do consenso

A maioria dos Estados estão agora convencidos da necessidade de agir de forma significativa, inclusive estão a pedir mais dias para debater em 2023. A Rússia quer limitar a 10 dias. Mas o principal problema é a regra do consenso, que proíbe qualquer avanço nas discussões.

Muitas pequenas divergências, por exemplo, delegações, perderam tempo a discutir se a CCW é “um” fórum apropriado ou o “único” fórum apropriado para tratar da questão das armas autónomas.

Essas discussões foram até teatrais quando a Rússia atacou muitas vezes a presença de sociedades civis para tentar limitar a sua intervenção e participação em reuniões informais.

Estes ataques foram uma ferramenta para desacelerar a discussão, focando o debate em pontos organizacionais. Ao mesmo tempo, também podemos temer que essa postura russa esteja a aparecer em outros GGEs. Alguns outros Estados, como Israel e Índia, são discretos, não emitiram nenhuma objeção, e provavelmente usam essa condição a seu favor. A Rússia está a fazer todo o trabalho para eles.

Depois de uma longa semana de negociações, com a recusa de alguns Estados, todos os detalhes sobre elementos e possíveis medidas para um acordo sobre armas autónomas foram removidos. Foram retiradas todas as conclusões sobre quais tipos de controlo são necessários e possíveis processos para alcançar esse controlo.

A presente secção de conclusões apenas descreve brevemente os tipos de propostas que foram discutidas, afirma o direito internacional humanitário, também reconhece brevemente as perspetivas éticas e reconhece que os Estados são responsáveis por atos ilícitos de acordo com o direito internacional [link para o report].

Não apenas as conclusões são dececionantes, mas a forma como a discussão foi conduzida foi dececionante, e o mandato para 2023 permanece incerto.

Não podemos esperar o CCW, a urgência do problema é crítica

A lentidão do processo é vantajosa para os países que utilizam essas tecnologias. As minas russas POM-3, por exemplo, de acordo com a Human Right Watch, foram usadas na Ucrânia. O desenvolvimento e implantação pela Rússia e outros países continuará durante todos estes anos, enquanto não houver acordo.

A esquerda portuguesa, o Bloco, e todas as sociedades civis têm que levantar a voz. Temos que pressionar os Estados a participar das discussões (high contracting parties to the CCw). As LAWs têm que ser ilegais já.

Vejam tambem: https://www.stopkillerrobots.org

C.F. Da Silva Costa – Mestrado em Proteção Estratégica do Sistema de Países e Doutor em Física. Representou a Universidade Accord, como sociedade civil, nos dias 25 e 29 de julho, no Grupo de Especialistas Governamentais em tecnologias emergentes na área de Sistemas de Armas Autônomas Letais, ONU, Genebra.

esquerda.net