Robôs Autônomos: os Kalashnikovs do Amanhã?, por Thiago Borne

image_pdfimage_print

Na última segunda-feira, 27 de Julho, o Instituto Pelo Futuro da Vida (Future of Life Institute – FLI) divulgou por ocasião da abertura da Conferência Internacional Conjunta de Inteligência Artificial de Buenos Aires uma carta aberta na qual condena o desenvolvimento de sistemas de armas autônomos e as consequências nefastas que uma possível corrida armamentista envolvendo esse tipo de tecnologia traria para a humanidade.

“Se qualquer potência militar investir no desenvolvimento de armas inteligentes, uma corrida armamentista é praticamente inevitável, e o limite dessa trajetória tecnológica é óbvio: armas autônomas se tornarão os kalashnikovs do amanhã”. Dentre os signatários da carta estão nomes famosos, como o do astrofísico britânico, Stephen Hawkins, e o do cofundador da Apple, Steve Wozniak.

O documento chamou atenção por ser assinado por personalidades importantes vinculadas ao FLI e por quase quinze mil outras pessoas, muitas das quais cientistas, professores, estudantes e acadêmicos vinculados aos campos da robótica e da inteligência artificial (IA). O FLI é uma organização sediada nos Estados Unidos, cujo objetivo é analisar os impactos de novas tecnologias sobre a vida humana a fim de garantir a sua preservação. Dentre os principais objetos de pesquisa do Instituto estão questões relacionadas ao desenvolvimento de máquinas munidas de inteligência cada vez mais próxima da humana.

A carta é importante, pois demonstra lucidez da comunidade científica justamente em um momento no qual o uso de sistemas robóticos se difunde rapidamente ao redor do mundo. Segundo o documento, ainda que por ora não existam sistemas capazes de atuar de maneira totalmente autônoma, “a inteligência artificial chegou a um ponto no qual o uso destes sistemas é factível – se não legalmente, na prática – não em décadas, mas em anos”. Por isso, o momento atual seria propício para introdução de dispositivos internacionais capazes de regular o emprego desse tipo de tecnologia, ao exemplo do que ocorreu no passado com armas biológicas, químicas e nucleares.

Não obstante a relevância da carta, o texto ignora algumas tendências da trajetória de emprego dessas tecnologias na guerra, bem como alguns impactos importantes que a regulamentação de seu desenvolvimento pode trazer para a política internacional.

Argumentos contra o emprego de sistemas autônomos normalmente se amparam na ideia de que a redução do número de baixas humanas propiciada pelo emprego de robôs diminuiria os custos morais e políticos da guerra. Ou seja, a robotização faria da guerra algo comum. Além disso, a robotização contribuiria também para aumentos no nível de poder de fogo e de precisão dos armamentos, tornando a guerra ainda mais letal. Há, contudo, quem discorde dessa ideia. Para John Arquilla (2013), da Escola de Pós-Graduação Naval dos Estados Unidos, por exemplo, o efeito seria justamente o contrário: o aumento da letalidade dos sistemas de armas aumentaria também os custos da guerra até um limite no qual ela deixaria de existir. Em outras palavras, a robotização contribuiria para redução da ocorrência de guerras.

Ainda que seja difícil prever a probabilidade de cada um desses cenários se concretizar,  o processo de robotização atualmente em curso nas forças armadas não levará, necessariamente, a uma relativização do controle humano sobre as operações. Segundo Didier Danet e Jean-Paul Hanon (2014), do Centro de Pesquisa da Academia Militar Francesa de Saint-Cyr, autonomia não reflete necessariamente progresso científico, mas a incapacidade da ciência determinar quais tecnologias são de fato relevantes.

Os primeiros drones postos em operação, por exemplo, tiveram muitas de suas funções automatizadas porque na época inexistiam ferramentas de comunicação que permitissem controle em tempo real sobre o seu desempenho. Em outras palavras, os autores acreditam que avanços tecnológicos podem significar a reintrodução do homem na cadeia de comando tão pronto quanto a tecnologia o permita, diminuindo assim a influência da inteligência artificial sobre a tomada de decisões.

Não obstante, a carta do FLI ainda ignora uma possível consequência adversa que a regulação do desenvolvimento de sistemas autônomos pode trazer, sobretudo para países em desenvolvimento: o congelamento de capacidades e a manutenção das atuais relações de poder no sistema internacional. Apesar do barateamento relativo das tecnologias necessárias para o desenvolvimento de robôs autônomos, ainda são as grandes potência que detêm o domínio sobre o capital intelectual e financeiro indispensáveis para a criação de sistemas de ponta.

Além disso, a difusão de tecnologias sensíveis é uma questão tradicionalmente vinculada à alta política desses países. Isso significa que a propagação de sistemas robóticos autônomos não deverá ocorrer tão rapidamente. Ademais, mesmo que ocorra, dificilmente chegaremos a um ponto no qual todo e qualquer país terá acesso a sistemas avançados, quiçá atores não-estatais, justamente porque transferência de tecnologia envolve decisões políticas complexas. Em outras palavras, assim como no caso das armas nucleares, o mundo continuará dividido entre duas categorias de países: os que têm e os que não têm acesso à tecnologia.

Vale ressaltar, nesse sentido, que é exatamente essa a principal crítica dos países em desenvolvimento ao Tratado de Não Proliferação de Armas Nucleares (TNP), por exemplo. O cenário de divisão entre os que têm e os que não têm talvez seja ainda mais preocupante do que um futuro no qual sistemas autônomos estejam de fato mais difundidos, pois implicaria guerras travadas por humanos de um lado e robôs de outro, ou seja, guerras assimétricas potencialmente destrutivas.

Apesar de todas essas ressalvas, a carta chama a atenção para a necessidade de manter o debate sobre o futuro da robótica e da inteligência artificial e suas relações com os seres humanos em pauta. Além disso, evidencia também a necessidade desse debate ocorrer de forma interdisciplinar, envolvendo não apenas roboticistas e cientistas da computação, mas também políticos, militares, internacionalistas, etc.

É importante, nesse sentido, que a comunidade acadêmica perceba que ela pode, na prática, atuar como ator com poder de veto no que diz respeito ao desenvolvimento e difusão de tecnologias. Resta saber, contudo, se ela está disposta a arcar com as consequências de suas escolhas, que podem se traduzir, entre outros, em uma redução dos orçamentos públicos para pesquisa. De qualquer forma, já é mais do que hora de pensarmos séria e coletivamente sobre o nosso próprio futuro.

ARQUILLA, John. Could Killer Robots Bring World Peace? We’re Breaking Isaac Asimov’s First Law – And it Could be Good for Humanity. Foreign Policy. 19 de Junho de 2013. Disponível em: http://www.foreignpolicy.com/articles/2013/06/19/could_killer_robots_bring_world_peace  (acesso em 30 de Julho de 2015).
DANET, Didier e Jean-Paul HANON. Digitization and Robotization of the Battlefield: Evolution or Robolution? In: DOARÉ, Ronan et al. Robots on the Battlefield: Contemporary Perspectives and Implications for the Future. Fort Leavenworth: Combat Studies Institute Press, 2014, p. xiii-xxxii.

 

Thiago Borne (thiago.borne@ufrgs.br) é doutorando em Estudos Estratégicos Internacionais – PPGEEI pela Universidade Federal do Rio Grande do Sul – UFRGS, e bolsista da Fundação de Amparo à Pesquisa do Estado do Rio Grande do Sul – FAPERGS

Seja o primeiro a comentar