Robôs assassinos deveriam ser proibidos? Inteligência artificial na indústria de defesa

Minidrones entram zunindo alto no auditório da universidade e caem deliberadamente sobre determinados estudantes, matando-os com tiros na testa. A cena faz parte de um filme de ficção divulgado no YouTube por opositores de armas autônomas.

Os drones, menores que uma a palma da mão, identificam suas vítimas usando algoritmos. Depois que eles identificam seu alvo, não há como escapar. Conectados entre si em rede, os minidrones obtêm seus dados das redes sociais.

Eles só matam pessoas que, de acordo com a história fictícia, compartilharam um vídeo crítico. O impressionante curta-metragem, intitulado Slaughterbots, foi clicado mais de 2,5 milhões de vezes desde seu lançamento, em novembro de 2017. Seria isso tudo ficção científica, imaginação delirante de pessoas medrosas? Nem tanto, na opinião de Thomas Küchenmeister, que se empenha pela proibição de armas autônomas. "O passo até lá é muito pequeno", opina.

Küchenmeister é presidente da Facing Finance, organização alemã que faz parte da campanha internacional Stop Killer Robots (parem robôs assassinos). Ele vai frequentemente a feiras de armas e conversa com fabricantes. Armas que, até certo ponto, agem autonomamente já fazem parte do leque de ofertas – por exemplo, foguetes que buscam por seus alvos e, no final, decidem por si mesmos qual deles destroem. "Essas armas não conseguem fazer uma distinção clara entre veículos militares e civis", afirma Küchenmeister.

A distinção entre soldados e civis é uma das regras mais importantes do direito internacional vigente numa guerra. Ele obriga as partes em conflito à proteção de civis.

O Comitê Internacional da Cruz Vermelha (CICV) define sistemas autônomos de armas como aqueles que podem buscar, selecionar e atacar ou destruir autonomamente seus alvos.

Autonomamente significa: sem intervenção humana. É exatamente aí que está o problema. E se um foguete como esse não destruir apenas os mísseis inimigos, mas matar também civis?

Inteligência artificial na indústria de defesa

O grau de autonomia nos sistemas de armas está aumentando devido ao rápido progresso no campo da inteligência artificial (IA) e da robótica. Atualmente, máquinas são capazes de aprender. Elas processam experiências usando redes neurais artificiais semelhantes a um cérebro humano. A indústria de armamentos se aproveita disso, tornando as armas mais rápidas e eficientes e reduzindo os perigos para os soldados.

No entanto, os limites são fluidos: enquanto um robô que busca autonomamente minas, as reconhece e desativa ainda é amplamente aceito, um robô que busca, reconhece e atira de forma autônoma contra certas pessoas é um caso claro para o direito internacional. Mas como o direito internacional se aplica a essas novas armas?

A comunidade internacional vem discutindo isso desde 2014 no escritório das Nações Unidas em Genebra, no âmbito Convenção sobre Armas Convencionais (CCW). As conversas informais se tornaram, em 2017, negociações oficiais, envolvendo mais de 70 estados, assim como cientistas e organizações não governamentais.

O assunto da rodada de conversações que ocorre desta segunda-feira (27/08) até a próxima sexta-feira são sistemas autônomos de armas letais ("Lethal Autonomous Weapon Systems", ou laws). Eles podem ser, por exemplo, robôs que lutam entre si no campo de batalha, assim como os drones assassinos do vídeo, que também são armas que ainda não existem, mas que poderão existir em breve.

Opositores e defensores da proibição

A comunidade internacional se divide, a grosso modo, em opositores e defensores de uma proibição vinculativa de armas autônomas e em países que, a princípio, querem um meio-termo, como Alemanha e França. Países que investem muito dinheiro no uso militar da inteligência artificial, como EUA, Israel, Rússia e Reino Unido, são contra a proibição.

"Aqueles que lideram o campo da inteligência artificial dominam o mundo", disse o presidente russo, Vladimir Putin, a estudantes em setembro de 2017. Ele teme que os EUA ou a China possam conquistar supremacia nesta área. Os avanços no campo da inteligência artificial alimentam há muito tempo uma corrida armamentista de armas autônomas.

O governo dos EUA, que está aumentando sensivelmente seu orçamento de defesa, argumentou durante a última rodada de negociações, em abril, que as armas autônomas ajudam a evitar baixas civis e diminuem os "danos colaterais" em uma guerra.

Até agora, 26 Estados pedem uma proibição vinculativa de armas autônomas, com apoio de representantes da sociedade civil. Mais de 230 organizações e 3 mil indivíduos assinaram uma petição contra armas autônomas do instituto americano Future of Life.

Entre eles, estão pesquisadores e empresários de renome do campo da inteligência artificial, como o chefe da Tesla, Elon Musk, e o Google Deep Mind. Eles se comprometem a não apoiar o desenvolvimento de sistemas autônomos de armas letais e exigem "normas e leis internacionais rigorosas" para proibi-los, argumentando que jamais a decisão de matar um ser humano deve ser delegada a uma máquina.

"Sim, mas não imediatamente”

Juntamente com a França, a Alemanha busca um meio-termo. Berlim propõe, como primeiro passo, uma declaração política, que deve ser seguida por um código de conduta militar e, apenas na última etapa, por um tratado de proibição.

Nesta abordagem escalonada, o governo alemão vê uma chance de que os oponentes de uma proibição também se disponham a apoiar uma declaração política não vinculativa. Uma vez determinados os padrões, isso facilitaria os próximos passos em direção a uma proibição vinculativa.

Os ativistas da campanha Stop Killer Robots não compartilham dessa opinião e exigem que a Alemanha desempenhe um papel pioneiro, como um grande e importante país europeu, defendendo uma proibição imediata. Diplomatas e ativistas concordam, entretanto, que o tempo é curto.

Alguns exércitos já realizam experiências com enxames de drones, enquanto outros desenvolvem armas de defesa, incluindo as Forças Armadas da Alemanha, a Bundeswehr. "Caso as conversações em Genebra não progridam, a pressão da sociedade civil crescerá", prevê Küchenmeister. Um contrato de proibição poderia, então, surgir fora do âmbito da ONU, de forma similar à luta contra as minas terrestres, cuja campanha internacional recebeu o Prêmio Nobel da Paz em 1997.

Compartilhar:

Leia também

Inscreva-se na nossa newsletter