14 de abr de 2018

Drones logo poderão decidir quem matar

Compartilhe Essa Matéria


O Exército dos EUA anunciou recentemente que está desenvolvendo os primeiros drones que podem identificar e atingir veículos e pessoas usando inteligência artificial (IA). Este é um grande passo em frente.
Enquanto os drones militares atuais ainda são controlados por pessoas, essa nova tecnologia decidirá quem matar com quase nenhum envolvimento humano.
Uma vez concluídos, esses drones representarão a militarização final da IA ​​e desencadearão vastas implicações legais e éticas para a sociedade em geral.
Há uma chance de que a guerra passe do combate ao extermínio, perdendo qualquer semelhança de humanidade no processo.
Ao mesmo tempo, poderia ampliar a esfera de guerra para que as empresas, engenheiros e cientistas que construíssem IA se tornassem alvos militares válidos.
Os drones militares letais existentes, como o MQ-9 Reaper, são cuidadosamente controlados e pilotados via satélite.
Se um piloto derruba uma bomba ou dispara um míssil, um operador de sensor humano guia-a ativamente para o alvo escolhido usando um laser.
Em última análise, a tripulação tem a responsabilidade final ética, legal e operacional para matar alvos humanos designados.
Como declara um operador do Reaper: "Tenho muito a mentalidade de que permitiria a um insurgente, por mais importante que fosse, um alvo, fugir do que dar um tiro arriscado que poderia matar civis ".
Mesmo com esses assassinatos , as emoções humanas, julgamentos e ética sempre permaneceram no centro da guerra.
A existência de trauma mental e transtorno de estresse pós-traumático (TEPT) entre os operadores de drones mostra o impacto psicológico da morte remota.
E isso na verdade aponta para um possível argumento militar e ético de Ronald Arkin , em apoio a drones de morte autônomos. Talvez, se esses drones derrubarem as bombas, problemas psicológicos entre os membros da tripulação possam ser evitados.
A fraqueza desse argumento é que você não precisa ser responsável por matar para ser traumatizado por ele.
Especialistas em inteligência e outras equipes militares analisam regularmente imagens gráficas de ataques com drones. Pesquisas mostram que é possível sofrer danos psicológicos observando frequentemente imagens de violência extrema.
Quando entrevistei mais de 100 membros da tripulação do Reaper para um próximo livro, todas as pessoas com quem conversei que conduziram ataques de drones letais acreditavam que, em última análise, deveria ser um humano que puxasse o gatilho final.
Retire o humano e você também tira a humanidade da decisão de matar.
Consequências graves
A perspectiva de drones totalmente autônomos alteraria radicalmente os complexos processos e decisões por trás dos assassinatos militares.
Mas a responsabilidade legal e ética não desaparece de alguma forma se você remover a supervisão humana. Em vez disso, a responsabilidade recairá cada vez mais sobre outras pessoas, incluindo cientistas de inteligência artificial.
As implicações legais desses desenvolvimentos já estão se tornando evidentes.
Sob o atual direito internacional humanitário , as instalações de “uso duplo” - aquelas que desenvolvem produtos para aplicações civis e militares - podem ser atacadas nas circunstâncias certas. Por exemplo, na Guerra do Kosovo, em 1999, a refinaria de petróleo de Pancevo foi atacada porque podia abastecer os tanques iugoslavos e abastecer os carros civis.
Com um sistema de armas de drones autônomos, certas linhas de código de computador quase certamente seriam classificadas como de uso duplo.
Empresas como o Google, seus funcionários ou seus sistemas podem se tornar responsáveis ​​por ataques de um estado inimigo.
Por exemplo, se o software de reconhecimento de imagem Project Maven do Googlefor incorporado a um drone autônomo militar americano, o Google poderá se encontrar envolvido no negócio de "matar" os drones , assim como qualquer outro contribuinte civil para esses sistemas autônomos letais.
Eticamente, ainda há problemas mais sombrios.
O ponto principal dos algoritmos de autoaprendizagem - programas que aprendem independentemente de qualquer dado que possam coletar - que a tecnologia usa é que eles se tornam melhores em qualquer tarefa que lhes seja dada.
Se um drone autônomo letal é melhorar em seu trabalho por meio do auto-aprendizado, alguém precisará decidir sobre um estágio aceitável de desenvolvimento - quanto ele ainda precisa aprender - no qual ele pode ser implementado.
No aprendizado de máquina militarizado, isso significa que líderes políticos, militares e do setor terão que especificar quantas mortes de civis serão consideradas aceitáveis, conforme a tecnologia for aperfeiçoada.
Experiências recentes de IA autônoma na sociedade devem servir como um aviso.
Os experimentos fatais de Uber e Tesla com carros autônomos sugerem que é praticamente garantido que haverá mortes não planejadas de drones autônomos enquanto os bugs do computador são eliminados.
Se forem deixadas máquinas para decidir quem morre, especialmente em grande escala, então o que estamos testemunhando é o extermínio.
Qualquer governo ou militar que desencadeou essas forças violaria quaisquer valores que alegasse estar defendendo. Em comparação, um piloto de drone lutando com uma decisão de "matar ou não matar" se torna o último vestígio da humanidade nos negócios muitas vezes desumanos da guerra.
A conversaEste artigo foi emendado para esclarecer que Uber e Tesla realizaram experimentos fatais com carros autônomos, em vez de Uber experimentar com um carro da Tesla como originalmente declarado.

Via: sciencealert


Receba Nosso Conteúdo Exclusivo


Notícias Urgentes, Mensagens de Dobson Lobo e etc Uniaodoslivres


// O corpo do texto deve ficar no lugar deste comentário. //

Dobson Lobo é CEO do site União dos Livres desde 2008, do site A Bio Defesa desde 2014e do site The Zika Virus desde 2016. 

0 comentários: