A ética no uso da Inteligência Artificial em armas autônomas
Palavras-chave:
IA, armas autonomas, éticaResumo
Recentemente, a empresa europeia MBDA anunciou a aplicação de Inteligência Artificial para que seus mísseis aéreos Spear respondam a ameaças e colaborem com o piloto da aeronave para enfrentar desafios táticos. Indo além, países como EUA, China e Israel vêm aplicando a Inteligência Artificial para permitir que armas letais possam selecionar alvos e tomar decisões autônomas de matar. Diante desse cenário, vários governos estão pressionando a Organização das Nações Unidas para a criação de uma resolução vinculante que restrinja a utilização de Inteligência Artificial em drones assassinos. A União Europeia foi pioneira na criação de uma lei, ao estabelecer o Regulamento de Inteligência Artificial, que visa a garantir que o uso dessa tecnologia seja seguro, cumpra a legislação e respeite os direitos e valores fundamentais da União Europeia. Entretanto, existem grupos de nações – que incluem os EUA, a Rússia, a Austrália e Israel – que ainda resistem a qualquer medida vinculante. Como se percebe, questões éticas relativas ao uso de Inteligência Artificial para tomar decisões autônomas que interferem nos direitos fundamentais do ser humano estão em pauta no cenário geopolítico internacional. Neste artigo, revisitam-se os desafios e riscos tecnológicos da aplicação da Inteligência Artificial em armas autônomas e os preceitos éticos que permeiam o tema, trazendo uma contribuição para o debate sobre a inevitável regulamentação que está por vir.