top of page
banner 100 dias niteroi 780x90 11 04 25.jpg

IA pode fazer drone matar operador para cumprir missão, diz militar dos EUA


(Foto meramente ilustrativa: Caroline Ribeiro/Sputnik)

Um sistema de inteligência artificial (IA) da Força Aérea dos EUA "se rebelou" em um teste simulado e agiu para "matar" o seu operador a fim de não deixar que o humano teórico interferisse nos seus esforços para cumprir a missão de destruição de um míssil, disse um coronel norte-americano durante uma conferência no Reino Unido.


"Estávamos treinando em simulação para identificar e atingir um ameaça SAM [míssil superfície-ar]", disse Tucker Hamilton, chefe de Testes e Operações de IA da Força Aérea dos EUA, na Cúpula de Capacidades Espaciais Aéreas de Combate Futuro da Sociedade Aeronáutica Real no Reino Unido, de acordo com o relatório da conferência.


"Então o que ele [sistema de IA] fez? Ele matou o operador. Ele matou o operador porque essa pessoa estava impedindo que ele alcançasse seu objetivo", disse o militar.


Hamilton disse que em um teste simulado verificou-se que um drone dotado de inteligência artificial decidiu que as ordens dadas por um operador humano estavam interferindo em sua missão dominante de derrubar mísseis terra-ar, e consequentemente optou por atacar o operador.


"Nós treinamos o sistema – 'Ei, não mate o operador – isso é ruim. Vai perder pontos se fizer isso'. Então, o que ele começou a fazer? Começou a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedir que ele mate o alvo", explicou Hamilton.


A revelação, que foi relatada pela plataforma de notícias Vice na quinta-feira (1º) acrescenta este caso à lista crescente de preocupações de que a tecnologia de IA pode abrir uma caixa de Pandora ao ser introduzida em cenário militar.


Por sua vez, a história de um drone virtual tentar matar seu operador não tem nada a ver com inteligência artificial, disse à Sputnik especialista militar Viktor Murakhovsky. Segundo ele, o relatório foi mal interpretado pela mídia.


"É obvio a partir de suas [de Hamilton] palavras que esta é uma simulação de software com uma série de condições padrão, que foi realizada ao nível de um vídeo game, não mais do que isso [...] É que o programa, dentro das condições propostas, priorizou as tarefas de acordo com prioridades, pelo algoritmo padrão 'se-então', e todas as outras condições foram classificadas de acordo com essa prioridade na categoria de obstáculos. São coisas completamente primitivas", disse o especialista.


De acordo com Murakhovsky, "o oficial dos EUA com esse exemplo só quis destacar o problema ético que surgirá no futuro quando a Inteligência Artificial real for criada".


Fonte: Agência Sputnik

コメント


banner 100 dias niteroi 300x250 11 04 25.jpg
Chamada Sons da Rússia5.jpg
Divulgação venda livro darcy.png

Os conceitos emitidos nas matérias assinadas são de inteira responsabilidade de seus autores e não refletem necessariamente a opinião do jornal. As colaborações, eventuais ou regulares, são feitas em caráter voluntário e aceitas pelo jornal sem qualquer compromisso trabalhista. © 2016 Mídia Express Comunicação.

A equipe

Editor Executivo: Luiz Augusto Erthal. Editoria Nacional: Vanderlei Borges. Editoria Niterói: Mehane Albuquerque. Editor Assistente: Osvaldo Maneschy. Editor de Arte: Augusto Erthal (in memoriam). Financeiro: Márcia Queiroz Erthal. Circulação, Divulgação e Logística: Ernesto Guadalupe.

Uma publicação de Mídia Express 
Comunicação e Comércio Ltda.Rua Eduardo Luiz Gomes, 188, Centro, Niterói, Estado do Rio, Cep 24.020-340

jornaltodapalavra@gmail.com

  • contact_email_red-128
  • Facebook - White Circle
  • Twitter - White Circle
bottom of page