| Name: | Description: | Size: | Format: | |
|---|---|---|---|---|
| 1.74 MB | Adobe PDF | |||
| 2 MB | Adobe PDF |
Authors
Advisor(s)
Abstract(s)
Armed forces are developing and integrating technology driven by artificial intelligence
(AI) to gain military superiority, yet such promises risk failing to recognise the intrinsic role
of public communication risks unbalancing the moral center of gravity in the military domain.
Understanding the opinions and concerns of the general public towards autonomous weapon
systems (AWS) is relevant for guiding public policy decisions related to their implementation. This
paper reports the findings of six focus groups (n=53), which were used to gauge the perceptions
and attitudes towards the development of AWS. The study findings indicate that AI-embedded
systems should be perceived as decision-making instruments, although with the caveat that any
decisions pertaining to life and death matters should not be delegated to a machine. Among
the participants, there was also a consensus that any commander giving a direct order to use
AWS to carry out a mission should be held responsible for any unlawful killings that may result
from that mission. More significantly, a soldier’s patriotism was considered one of the most
crucial factors in warfare; however, implementing a patriotic code and increasing autonomous
weapons’ algorithmic will to defend would be, according to the participants, difficult to imagine
that unmanned platforms can hardly ever be equipped with patriotical algorithms.
As Forças Armadas de vários países têm vindo a investir no desenvolvimento e integração de tecnologia controlada por inteligência artificial (IA) com o objetivo de obter superioridade militar. No entanto, apesar dos benefícios, se o papel essencial da comunicação pública não for reconhecido, corre se o risco de introduzir desequilíbrios no centro de gravidade moral da instituição militar. É imperativo compreender as opiniões e preocupações dos cidadãos em relação aos sistemas de armamento autónomos (SAA) para que estas possam orientar as decisões políticas relacionadas com a sua implementação. Este artigo relata as conclusões de um estudo que analisou as perceções e atitudes de seis grupos de discussão (n=53) relativamente ao desenvolvimento de SAA. O estudo revelou que os sistemas controlados por IA devem ser considerados instrumentos de tomada de decisão. Porém, as decisões relativas a questões de vida ou morte não devem ser confiadas a uma máquina. A opinião consensual foi a de que qualquer comandante que dê uma ordem direta para utilizar SAA numa missão deve ser responsabilizado pelas mortes ilícitas que daí possam resultar. Ainda mais importante, o sentimento de patriotismo é considerado um dos fatores mais cruciais num conflito armado. No entanto, segundo os participantes, dotar os algoritmos que gerem as armas autónomas de um código patriótico e imbuí-lo de um desejo de defender a pátria é algo difícil de imaginar, uma vez que não é possível programar estas plataformas não tripuladas com algoritmos patrióticos.
As Forças Armadas de vários países têm vindo a investir no desenvolvimento e integração de tecnologia controlada por inteligência artificial (IA) com o objetivo de obter superioridade militar. No entanto, apesar dos benefícios, se o papel essencial da comunicação pública não for reconhecido, corre se o risco de introduzir desequilíbrios no centro de gravidade moral da instituição militar. É imperativo compreender as opiniões e preocupações dos cidadãos em relação aos sistemas de armamento autónomos (SAA) para que estas possam orientar as decisões políticas relacionadas com a sua implementação. Este artigo relata as conclusões de um estudo que analisou as perceções e atitudes de seis grupos de discussão (n=53) relativamente ao desenvolvimento de SAA. O estudo revelou que os sistemas controlados por IA devem ser considerados instrumentos de tomada de decisão. Porém, as decisões relativas a questões de vida ou morte não devem ser confiadas a uma máquina. A opinião consensual foi a de que qualquer comandante que dê uma ordem direta para utilizar SAA numa missão deve ser responsabilizado pelas mortes ilícitas que daí possam resultar. Ainda mais importante, o sentimento de patriotismo é considerado um dos fatores mais cruciais num conflito armado. No entanto, segundo os participantes, dotar os algoritmos que gerem as armas autónomas de um código patriótico e imbuí-lo de um desejo de defender a pátria é algo difícil de imaginar, uma vez que não é possível programar estas plataformas não tripuladas com algoritmos patrióticos.
Description
Keywords
Autonomous Weapon Systems Unmanned Ground Vehicles Laws of war Military ethics Sistemas de Armamento Autónomos Veículos Terrestres Não Tripulados Leis da guerra Ética militar
