Inteligência artificial para armas precisa de humanos que tomem decisões, diz executivo

Por RAPHAEL HERNANDES

BARCELONA, ESPANHA (FOLHAPRESS) - O uso de IA (inteligência artificial) em sistemas de defesa devem ajudar humanos, não substituí-los, de acordo com Jim Taiclet, CEO da Lockheed Martin, fabricante de produtos aeroespaciais e de defesa.

Taiclet falou na manhã desta terça-feira (28) no Mobile World Congress, evento de tecnologia que acontece nesta semana em Barcelona.

"Humanos sempre estarão envolvidos em defesa nacional, para tomar as decisões de quando usar suas capacidades", afirmou. "Temos até um centro de ética na nossa empresa para aconselhar os militares a manter as pessoas completamente no controle, mesmo quando têm o auxílio de inteligência artificial."

O uso de IA na defesa aparece em uma série de processos, como para monitoramento de informações de radares e satélites, segurança digital. Há ainda os casos de armas autônomas, capazes de puxar o gatilho sozinhas.

A fala vem em meio a uma crescente presença de IA em várias áreas, com ferramentas como o ChatGPT ganhando destaque. Em conflitos armados, como a guerra entre Rússia e Ucrânia, o potencial uso de equipamentos letais que funcionam sem interferência de pessoas causa preocupação.

Em artigo publicado na revista Nature na última terça (21), Stuart Russell, professor da Universidade da Califórnia em Berkeley (EUA) e um dos principais especialistas em IA no mundo, condena o uso das armas autônomas.

"Logo, sistemas de armas letais totalmente autônomos podem se tornar lugar comum em conflitos. Alguns já estão no mercado. Misericordiosamente, poucos foram usados em combate, e nenhum foi usado na Ucrânia até o momento em que este texto é escrito. Ainda assim, a evolução dos eventos preocupa", escreve Russell.

Ele explica que a lógica de criar formas de combater as ameaças automatizadas é o que está levando os dois lados a aumentar o nível de autonomia do seu arsenal.

Essas armas, argumenta, são mais baratas, rápidas e alcançam mais longe do que humanos --algo semelhante ao que acontece com as operadas remotamente, como drones, mas com a vantagem de não depender de comunicação com uma base. Uma preocupação é que esse tipo de equipamento pode ser lançado aos milhões, além de poder ser hackeado.

"Governos devem começar negociações sérias de um tratado para banir o uso de armas autônomas contra humanos, no mínimo", diz Russell.

Para reduzir danos acidentais, exemplifica Jim Taiclet, num caso de um sistema de computador identifica um alvo, um humano deveria confirmar antes de qualquer atitude ser tomada.

Outro exemplo seria, no caso de um combate a incêndio florestal, a tecnologia analisar a situação com drones e imagens de satélite para ajudar a informar os bombeiros. O sistema poderia até sugerir algumas opções de ações, mas as escolhas ficam com os comandantes.

"O valor da IA para defesa e proteção contra situações climáticas extremas é processar grandes quantidades de dados e ajudar os humanos", disse Taiclet.

Por lidar com grandes fluxos de dados, que podem ser hackeados, o executivo também faz o alerta para o cuidado com cibersegurança. "Serve para todas as áreas: devem pensar qual a abordagem ética para seus sistemas de IA desde o começo", afirmou.