Elon Musk revelou que espera que a inteligência artificial (IA) seja usada por governos de todo o mundo para desenvolver armas antes de qualquer outra coisa. O proprietário da Tesla, Space X e Twitter estava falando por meio de um link de vídeo na Cúpula Anual do Conselho de CEOs do Wall Street Journal (WSJ) em Londres na terça-feira. O evento, realizado anualmente durante dois dias, mostra os executivos-chefes falarem sobre como navegam no mundo dos negócios para um público global.
Bem-vindo ao
Banco de dados de incidentes de IA
Sobre o banco de dados
O AI Incident Database é dedicado a indexar o histórico coletivo de danos ou quase danos realizados no mundo real pela implantação de sistemas de inteligência artificial. Como bancos de dados semelhantes em aviação e segurança de computadores, o AI Incident Database visa aprender com a experiência para que possamos prevenir ou mitigar resultados ruins.
Você está convidado a enviar relatórios de incidentes, após os quais os envios serão indexados e tornados visíveis para o mundo. A inteligência artificial só será um benefício para as pessoas e para a sociedade se registrarmos coletivamente e aprendermos com suas falhas. (Saiba mais)
Arma autônoma letal
“Robô assassino” redireciona aqui. Para o conceito de robôs e/ou inteligência artificial matando ou erradicando humanos e/ou outros seres vivos, consulte Risco existencial da inteligência artificial geral, aquisição de IA e gosma cinza. Não deve ser confundido com kill bot.
Armas autônomas letais (LAWs) são um tipo de sistema militar autônomo que pode procurar e engajar alvos de forma independente com base em restrições e descrições programadas. Os LAWs também são conhecidos como sistemas de armas autônomas letais (LAWS), sistemas de armas autônomas (AWS), armas robóticas ou robôs assassinos. Os LAWs podem operar no ar, na terra, na água, debaixo d’água ou no espaço. A autonomia dos sistemas a partir de 2018 foi restrito no sentido de que um humano dá o comando final para atacar – embora haja exceções com certos sistemas “defensivos”.
Ser “autônomo” tem significados diferentes em diferentes campos de estudo. Em termos de desenvolvimento de armas militares, a identificação de uma arma como autônoma não é tão clara quanto em outras áreas. [1] O padrão específico implicado no conceito de ser autônomo pode variar enormemente entre diferentes estudiosos, nações e organizações.
Um agente artificial que, no mínimo, é capaz de mudar seus próprios estados internos para atingir um determinado objetivo, ou conjunto de objetivos, dentro de seu ambiente operacional dinâmico e sem a intervenção direta de outro agente e também pode ser dotado de algumas habilidades para alterar suas próprias regras de transição sem a intervenção de outro agente, e que é implantado com o objetivo de exercer força cinética contra uma entidade física (seja um objeto ou um ser humano) e para esse fim é capaz de identificar, selecionar ou atacar o alvo sem a intervenção de outro agente é um AWS. Uma vez implantada, a AWS pode ser operada com ou sem algumas formas de controle humano (dentro, dentro ou fora do circuito). Um AWS letal é um subconjunto específico de um AWS com o objetivo de exercer força cinética contra seres humanos. [2]
Várias pessoas têm muitas definições do que constitui uma arma autônoma letal. A Política oficial do Departamento de Defesa dos Estados Unidos sobre Autonomia em Sistemas de Armas define um Sistema de Armas Autônomo como “Um sistema de armas que, uma vez ativado, pode selecionar e engajar alvos sem intervenção adicional de um operador humano”. [3] Heather Roff, escritora da Faculdade de Direito da Case Western Reserve University, descreve os sistemas de armas autônomos como “sistemas de armas armadas, capazes de aprender e adaptar seu ‘funcionamento em resposta às mudanças nas circunstâncias do ambiente em que [são] implantados’, bem como capazes de tomar decisões de disparo por conta própria. ” [4] Essa definição de sistemas de armas autônomos é um limite bastante alto em comparação com as definições de estudiosos como Peter Asaro e Mark Gubrud
Estudiosos como Peter Asaro e Mark Gubrud estão tentando definir o limite mais baixo e julgar mais sistemas de armas como autônomos. Eles acreditam que qualquer sistema de armas capaz de liberar uma força letal sem a operação, decisão ou confirmação de um supervisor humano pode ser considerado autônomo. De acordo com Gubrud, um sistema de armas operando parcial ou totalmente sem intervenção humana é considerado autônomo. Ele argumenta que um sistema de armas não precisa ser capaz de tomar decisões completamente por si só para ser chamado de autônomo. Em vez disso, deve ser tratado como autônomo, desde que envolva ativamente uma ou várias partes do “processo de preparação”, desde encontrar o alvo até finalmente disparar. [5][6]
Outras organizações, no entanto, estão definindo o padrão do sistema de armas autônomo em uma posição mais alta. O Ministério da Defesa britânico define sistemas de armas autônomos como “sistemas capazes de entender a intenção e a direção de nível superior”. A partir desse entendimento e de sua percepção de seu ambiente, tal sistema é capaz de tomar as medidas apropriadas para produzir um estado desejado. É capaz de decidir um curso de ação, a partir de uma série de alternativas, sem depender da supervisão e controle humanos – esse envolvimento humano com o sistema ainda pode estar presente, no entanto. Embora a atividade geral de uma aeronave autônoma não tripulada seja previsível, as ações individuais podem não ser. [7]
Como resultado, a composição de um tratado entre estados requer uma rotulagem comumente aceita do que exatamente constitui uma arma autônoma. [8]
Sistemas defensivos automáticos
editarA arma letal mais antiga acionada automaticamente é a mina terrestre, usada desde pelo menos 1600, e as minas navais, usadas desde pelo menos 1700. As minas antipessoal são proibidas em muitos países pelo Tratado de Ottawa de 1997, sem incluir os Estados Unidos, a Rússia e grande parte da Ásia e do Oriente Médio.
Alguns exemplos atuais de LAWs são sistemas automatizados de proteção ativa “hardkill”, como sistemas CIWS guiados por radar usados para defender navios que estão em uso desde a década de 1970 (por exemplo, o US Phalanx CIWS). Esses sistemas podem identificar e atacar de forma autônoma mísseis, foguetes, fogo de artilharia, aeronaves e embarcações de superfície que se aproximam, de acordo com os critérios estabelecidos pelo operador humano. Existem sistemas semelhantes para tanques, como a Arena Russa, o Troféu Israelense e o AMAP-ADS alemão. Vários tipos de sentinelas estacionárias, que podem disparar contra humanos e veículos, são usados na Coreia do Sul e em Israel. Muitos sistemas de defesa antimísseis, como o Iron Dome, também possuem recursos de direcionamento autônomo.
A principal razão para não ter um “humano no circuito” nesses sistemas é a necessidade de resposta rápida. Eles geralmente têm sido usados para proteger o pessoal e as instalações contra projéteis que se aproximam.
Sistemas ofensivos autônomos
editarDe acordo com o The Economist, à medida que a tecnologia avança, as aplicações futuras de veículos submarinos não tripulados podem incluir remoção de minas, colocação de minas, rede de sensores anti-submarinos em águas contestadas, patrulhamento com sonar ativo, reabastecimento de submarinos tripulados e plataformas de mísseis de baixo custo. [9] Em 2018, a Revisão da Postura Nuclear dos EUA alegou que a Rússia estava desenvolvendo um “novo torpedo autônomo submarino intercontinental, com armas nucleares, movido a energia nuclear” chamado “Status 6“. [10]
A Federação Russa está desenvolvendo ativamente mísseis artificialmente inteligentes, drones, veículos não tripulados, robôs militares e robôs médicos. [13][14][15][16]
O ministro israelense Ayoob Kara afirmou em 2017 que Israel está desenvolvendo robôs militares, incluindo aqueles tão pequenos quanto moscas. [17]
Em outubro de 2018, Zeng Yi, executivo sênior da empresa de defesa chinesa Norinco, fez um discurso no qual disse que “em futuros campos de batalha, não haverá pessoas lutando” e que o uso de armas autônomas letais na guerra é “inevitável”. [18] Em 2019, o secretário de Defesa dos EUA, Mark Esper, atacou a China por vender drones capazes de tirar a vida sem supervisão humana. [19]
O Exército Britânico implantou novos veículos não tripulados e robôs militares em 2019. [20]
A Marinha dos EUA está desenvolvendo frotas “fantasmas” de navios não tripulados. [21]
Em 2020, um drone Kargu 2 caçou e atacou um alvo humano na Líbia, de acordo com um relatório do Painel de Especialistas do Conselho de Segurança da ONU sobre a Líbia, publicado em março de 2021. Esta pode ter sido a primeira vez que um robô assassino autônomo armado com armas letais atacou seres humanos. [22][23]
Em maio de 2021, Israel realizou um ataque de enxame de drones de combate guiado por IA em Gaza. [24]
Desde então, houve inúmeros relatos de enxames e outros sistemas de armas autônomos sendo usados em campos de batalha ao redor do mundo. [25]
Além disso, a DARPA está trabalhando para disponibilizar enxames de 250 drones letais autônomos para os militares americanos. [26]
Questões éticas e legais
editarGrau de controle humano
editarTrês classificações do grau de controle humano de sistemas de armas autônomos foram estabelecidas por Bonnie Docherty em um relatório de 2012 da Human Rights Watch. [27]
- human-in-the-loop: a human must instigate the action of the weapon (in other words not fully autonomous).
- Human-on-the-loop: Um humano pode abortar uma ação.
- humano-out-of-the-loop: nenhuma ação humana está envolvida.
Padrão usado na política dos EUA
editarA política atual dos EUA afirma: “Autônomo … Os sistemas de armas devem ser projetados para permitir que comandantes e operadores exerçam níveis apropriados de julgamento humano sobre o uso da força. [28] No entanto, a política exige que os sistemas de armas autônomos que matam pessoas ou usam força cinética, selecionando e engajando alvos sem intervenção humana adicional, sejam certificados como compatíveis com “níveis apropriados” e outros padrões, não que tais sistemas de armas não possam atender a esses padrões e, portanto, são proibidos. [29] Caçadores-assassinos “semi-autônomos” que identificam e atacam alvos de forma autônoma nem precisam de certificação. [29] O vice-secretário de Defesa, Robert O. Work, disse em 2016 que o Departamento de Defesa “não delegaria autoridade letal a uma máquina para tomar uma decisão”, mas pode precisar reconsiderar isso, já que “regimes autoritários” podem fazê-lo. [30] Em outubro de 2016, o presidente Barack Obama afirmou que, no início de sua carreira, desconfiava de um futuro em que um presidente dos EUA fazendo uso da guerra de drones pudesse “realizar guerras perpétuas em todo o mundo, e muitas delas secretas, sem qualquer responsabilidade ou debate democrático”. [31] [32] Nos EUA, a IA relacionada à segurança está sob a alçada da Comissão de Segurança Nacional sobre Inteligência Artificial desde 2018. [33] [34] Em 31 de outubro de 2019, o Conselho de Inovação em Defesa do Departamento de Defesa dos Estados Unidos publicou o rascunho de um relatório descrevendo cinco princípios para IA armada e fazendo 12 recomendações para o uso ético da inteligência artificial pelo Departamento de Defesa que garantiria que um operador humano sempre fosse capaz de olhar para a ‘caixa preta’ e entender o processo de cadeia de morte. Uma grande preocupação é como o relatório será implementado. [35]
Possíveis violações da ética e dos atos internacionais
editarStuart Russell, professor de ciência da computação da Universidade da Califórnia, Berkeley, afirmou que a preocupação que ele tem com os LAWs é que sua visão é que é antiético e desumano. O principal problema com este sistema é que é difícil distinguir entre combatentes e não combatentes. [36]
Há preocupação por parte de alguns economistas[37] e juristas sobre se as LAWs violariam o Direito Internacional Humanitário, especialmente o princípio da distinção, que exige a capacidade de discriminar combatentes de não combatentes, e o princípio da proporcionalidade, que exige que os danos aos civis sejam proporcionais ao objetivo militar. [38] Essa preocupação é frequentemente invocada como uma razão para banir completamente os “robôs assassinos” – mas é duvidoso que essa preocupação possa ser um argumento contra as LAWs que não violam o Direito Internacional Humanitário. [39][40][41]
Um relatório de 2021 do Serviço de Pesquisa do Congresso Americano afirma que “não há proibições legais nacionais ou internacionais sobre o desenvolvimento do uso de LAWs”, embora reconheça as negociações em andamento na Convenção das Nações Unidas sobre Certas Armas Convencionais (CCW). [42]
Alguns dizem que as LAWs confundem os limites de quem é responsável por um assassinato específico. [43] [37] O filósofo Robert Sparrow argumenta que as armas autônomas são causalmente, mas não moralmente responsáveis, semelhantes às crianças-soldados. Em cada caso, ele argumenta que existe o risco de atrocidades ocorrerem sem um sujeito apropriado para responsabilizar, o que viola o jus in bello. [44] Thomas Simpson e Vincent Müller argumentam que podem facilitar o registro de quem deu qual comando. [45] As possíveis violações do DIH pelas LEIS são – por definição – aplicáveis apenas em cenários de conflito que envolvem a necessidade de distinguir entre combatentes e civis. Como tal, qualquer cenário de conflito desprovido da presença de civis – ou seja, no espaço ou no mar profundo – não enfrentaria os obstáculos colocados pelo DIH. [46]
Segundo Forbes: Elon Musk chama os construtores do F-35 de ” e favorece os enxames de drones
Elon Musk está programado para chefiar o Departamento de Eficiência Governamental e cortar os gastos federais, com uma salva de mensagens na própria plataforma Twitter/X de Musk dando uma ideia do que ele tem em vista. Ele quer economizar US $ 2 trilhões e sua sinalização parece potencialmente alarmante para os empreiteiros de defesa … pelo menos alguns deles.
Em particular, Musk parece ter uma briga com o F-35, a aeronave de combate mais importante da América… e com alguns tweets, ele derrubou o preço das ações dos fabricantes Lockheed Martin em mais de 3%.
DOGE versus furtividade
Em um post no domingo, Musk comentou em um vídeo mostrando uma formação de centenas de pequenos drones dizendo que “Enquanto isso, alguns ainda estão construindo caças tripulados como o F-35“.
Musk elaborou o que ele vê como as falhas do F-35 em um post de acompanhamento, afirmando: “O design do F-35 foi quebrado no nível de requisitos, porque era necessário ser muitas coisas para muitas pessoas. Isso o tornou um pau para toda obra caro e complexo, mestre de ninguém. O sucesso nunca esteve no conjunto de resultados possíveis. E os caças tripulados são obsoletos na era dos drones de qualquer maneira. Vai apenas matar os pilotos.”
Como Musk explicou, não é apenas o F-35 que ele vê como desatualizado, mas todas as aeronaves com pilotos a bordo:
“Os caças tripulados são uma maneira ineficiente de estender o alcance dos mísseis ou lançar bombas. Um drone reutilizável pode fazer isso sem toda a sobrecarga de um piloto humano.
E os caças serão abatidos muito rapidamente se a força adversária tiver SAM ou drones sofisticados, como mostrado pelo conflito Rússia-Ucrânia.
Os caças têm a vantagem de ajudar os oficiais da Força Aérea a transar. Os drones são muito menos eficazes nesse sentido”
O Twitter não é uma plataforma ideal para discussões diferenciadas e houve poucos comentários informados no que se seguiu. As facções Pro-F-35 e Pro-Musk parecem tão profundamente entrincheiradas que não conseguem ver por cima do parapeito para observar a posição uma da outra.
A retórica anti-F-35 de Musk atingiu um ponto alto com este grito: “Alguns sistemas de armas dos EUA são bons, embora superfaturados, mas por favor, em nome de tudo o que é sagrado, vamos parar com o pior valor militar para o dinheiro da história que é o programa F-35!“
Houve muita discussão inútil e muitas vezes desinformada sobre exatamente o que o F-35 e os drones poderiam fazer. Qual é o verdadeiro problema aqui?
Problemas técnicos
Descrever o desenvolvimento do F-35 como problemático seria um eufemismo enorme. A aeronave passou por uma série aparentemente interminável de atrasos, custos excessivos e falhas técnicas. Estima-se que o programa esteja uma década atrasado e US $ 180 bilhões acima do orçamento e ainda luta com “confiabilidade, manutenção e disponibilidade“, de acordo com o relatório anual do Diretor de Teste e Avaliação Operacional.
Mas o programa continuou. Os críticos dizem que isso ocorre simplesmente porque o investimento e a falta de alternativas o tornam “grande demais para falir”, mas mais de mil jatos foram entregues e o F-35 foi usado com sucesso em combate. Exercícios de treinamento e simulações sugerem que o F-35 é altamente capaz, com um relatório afirmando que, em cenários de teste realistas, ele matou aeronaves inimigas na proporção de 20 para 1 (“Como o F-35 pode destruir sozinho uma força aérea”).
Escusado será dizer que a discussão sobre se o F-35 é superfaturado e superestimado ou injustamente criticado é mais alto do que nunca, como você poderia esperar de um programa que deve chegar a um trilhão de dólares. Musk não se envolveu em muita discussão sobre por que ele vê o F-35 como falho, mas comentou sobre as limitações do design furtivo que dificulta a visão no radar, afirmando em outro tweet que “É ridiculamente fácil derrubar caças. ‘ Stealth’ não significa nada se você usar IA elementar com câmeras de baixa sensibilidade à luz. Eles não são invisíveis.”
Alguns questionaram essa declaração abrangente, e um acompanhamento sugeriu que Musk estava realmente falando sobre câmeras termográficas – “Busca e rastreamento infravermelho” em linguagem de caça – com IA adicionada.
Os benefícios das limitações da tecnologia furtiva são um campo de discussão enorme e ativo. Seria errado afirmar que a furtividade está morta ou que é essencial. Pode pelo menos valer a pena notar que as aeronaves furtivas russas não apareceram no conflito atual e seu drone de ataque furtivo falhou catastroficamente. Quão bem ou mal o F-35 se sairia em uma guerra semelhante é outra questão.
Mas se Musk está certo ou errado pode não vir ao caso. Ele está sendo encarregado de cortar os gastos excessivos do governo e parece ter identificado um programa que acha que deveria ser cortado. É mais uma questão de saber se ele tem o poder e a influência para fazer isso acontecer.
Vencedores e perdedores: entre no enxame
Como observou um artigo recente na Mother Jones, cerca de metade do orçamento discricionário, os gastos que o Congresso aprova a cada ano, vai para a defesa, com mais de US$ 840 bilhões entregues ao Pentágono no orçamento de 2024. Uma grande proporção disso vai para os cinco grandes empreiteiros – Lockheed Martin, Boeing, RTX (Raytheon), General Dynamics e Northrop Grumman – exatamente o tipo de players tradicionais da indústria que Musk adora interromper.
Portanto, o programa F-35, tecnologia antiga dos anos 90 para Musk, é um alvo óbvio para cortes. Mas há outro aspecto.
“Fornecerei financiamento recorde para nossos militares“, afirmou Trump em um vídeo em seu site de campanha, portanto, mesmo que haja cortes em grandes programas como o F-35, os gastos gerais podem aumentar. Isso significaria grandes investimentos em novos programas, presumivelmente aqueles com o tipo de toque de alta tecnologia favorecido pelo DOGE.
Como o Tweet original indicava, Musk é um grande fã de drones e muitos deles, tendo tuitado anteriormente que “batalhas de enxames de drones estão chegando e vão confundir a mente”.
Na Cúpula do Conselho de CEOs do Wall Street Journal em Londres, Musk disse que “quaisquer guerras futuras entre países avançados, ou pelo menos países com capacidade de drones, serão muito mais as guerras de drones”.
Esta parece ser uma boa notícia para empresas como Anduril e Shield AI e Palantir, que estão envolvidas no fornecimento de sistemas alimentados por IA para o Pentágono, e já têm pequenos drones habilitados para IA e até enxames de drones prontos para uso. Ao contrário dos drones existentes, os enxames podem operar como grandes grupos cooperativos com supervisão humana mínima. Essas empresas são parentes espirituais de Musk, startups do Vale do Silício, em vez de players industriais tradicionais, que buscam trazer novas tecnologias para o setor militar. E eles podem descobrir que o vento está mudando em sua direção.
Até que ponto um grande número de drones pequenos e de baixo custo pode aumentar, substituir ou substituir o poder aéreo tradicional permanece uma questão em aberto. E se eles ainda serão tão acessíveis quando feitos por empreiteiros americanos é igualmente importante. Mas as evidências da Ucrânia sugerem que os drones desempenharão um papel cada vez mais dominante em guerras futuras. (Para declarar interesse, como autor de um livro sobre como pequenos drones conquistarão o mundo, tenho um certo preconceito aqui).
Enquanto a Ucrânia e a Rússia estão adquirindo mais de um milhão de drones por ano cada, os EUA ainda os compram aos milhares. Se Musk conseguir o que quer, a futura força dos EUA provavelmente terá menos F-35s e muito mais drones pequenos. A única coisa que é certa é que o debate continuará: com essa quantidade de bilhões em jogo, para não mencionar a segurança nacional, ninguém vai ficar quieto.
Autor de ‘Swarm Troopers: Como pequenos drones conquistarão o mundo’, seguindo a tecnologia militar de ponta em geral e a revolução da guerra de drones em particular.