O ecrã brilha suavemente dentro de um contentor escuro, enterrado algures num deserto que nenhum turista alguma vez verá. Uma grelha de píxeis, um borrão em movimento, um quadrado minúsculo subitamente fica vermelho. Nenhuma mão humana pega num joystick. Nenhum oficial grita “dispara”.
Um sistema autoaprendente já fez a sua escolha.
Algures, a muitos quilómetros de distância, outro ecrã mostrará apenas duas palavras: alvo neutralizado.
Ninguém nessa cadeia - do engenheiro de ténis ao general de uniforme impecavelmente engomado - consegue dizer exatamente porquê a máquina escolheu aquela assinatura térmica, aquele carro, aquela sombra.
E quanto mais estas armas aprendem sozinhas, mais difícil se torna apontar para uma única pessoa e dizer: a responsabilidade é tua.
A linha da frente é agora um algoritmo
Pergunte a um operador de drones o que mudou em dez anos e ele não começará por asas maiores ou câmaras melhores.
Falará de como a máquina agora “ajuda” a decidir, de como o software desenha pequenas caixas à volta de corpos em movimento e os classifica silenciosamente por nível de ameaça.
Pouco a pouco, o papel humano muda de agir para supervisionar.
De escolher para apenas aprovar.
Num dia calmo, isso parece eficiente.
Num dia caótico, quando poeira, crianças, combatentes e civis se misturam no mesmo enquadramento, essa “ajuda” pode transformar-se numa armadilha.
Em 2020, imagens da Líbia mostraram o que parece ter sido o primeiro uso registado de um drone de ataque totalmente autónomo, o Kargu-2 de fabrico turco.
O relatório da ONU afirmou que estava “programado para atacar alvos sem exigir conectividade de dados”.
Sem joystick. Sem comando em tempo real.
Apenas um conjunto de instruções e uma máquina capaz de procurar e atacar por si própria.
Agora multiplique essa ideia, como um copiar-colar, por programas nos EUA, China, Israel, Rússia, Coreia do Sul.
Cada um com as suas regras, base de código e bugs ocultos.
De repente, a guerra parece menos reuniões de estratégia e mais frotas de sistemas - todos a aprender, todos a otimizar, todos a empurrar humanos a clicar “confirmar”.
Tecnicamente, ainda existe uma cadeia de comando.
Advogados revêm procedimentos de seleção de alvos. Programadores testam conjuntos de dados. Oficiais autorizam a implantação.
Mas quando um sistema autónomo se adapta no terreno, com base em padrões que descobre sozinho, a relação entre causa e efeito fica turva.
Que linha exata de código levou a confundir um agricultor com um combatente?
Os dados de treino representavam em excesso um tipo de rosto, um tipo de roupa, uma paisagem?
Ou o sistema criou uma regra interna que nenhum humano antecipou?
A responsabilização dissolve-se numa névoa de responsabilidade partilhada e negação plausível.
Toda a gente está envolvida. Ninguém é precisamente culpado.
Como a responsabilização se esvai discretamente
A mudança começa com uma promessa que soa quase inofensiva: “A IA só vai assistir, os humanos mantêm-se no circuito.”
Em slides de PowerPoint, esse circuito parece limpo: humano no centro, tecnologia como ferramenta.
Na realidade, um sistema autoaprendente torna-se muitas vezes o cérebro por defeito.
É mais rápido, reage em microssegundos, nunca se cansa nem tem medo.
Um operador exausto, a olhar para uma parede de ecrãs às 3 da manhã, confiará muito mais facilmente na caixa colorida em torno de uma figura do que na sua própria visão turva.
Com o tempo, a pergunta deixa de ser “O que devemos fazer?” e passa a ser “Porque haveríamos de ir contra a IA?”
O padrão já é visível na vida civil.
Pense em condutores que obedecem às instruções do GPS para ruas sem saída ou até para dentro de rios.
Transponha isso para um campo de batalha, onde as decisões são letais e os dados são mais sujos.
Uma IA treinada sobretudo com imagens de combatentes a transportar armas pode desvalorizar o perigo em situações que pareçam “diferentes”, ou inflacioná-lo quando vê uma postura familiar no contexto errado.
Num exercício real da NATO, uma IA de defesa antimíssil começou a classificar aeronaves amigas como hostis depois de se adaptar a um novo padrão.
Não ficou “fora de controlo”. Estava apenas a fazer aquilo para que foi concebida: aprender.
Num campo de batalha real, esse tipo de aprendizagem pode apagar a linha entre erro e crime.
A lei e a ética movem-se mais devagar do que o código chega à produção.
O direito tradicional da guerra presume uma mente humana por detrás de cada ataque, capaz de ponderar proporcionalidade e distinção.
Sistemas autoaprendentes quebram esse pressuposto.
A responsabilidade pode ficar repartida entre o fornecedor de software, o cliente militar, o fornecedor de dados, o oficial, o líder político.
Em salas de conselho e audições parlamentares, já se recorre a frases de conforto: “avaria do sistema”, “comportamento inesperado”, “anomalia no modelo”.
Soa técnico. E também soa conveniente.
Quando uma máquina se torna o último ator visível numa cadeia mortal, há sempre o risco de a responsabilidade humana sair discretamente da sala.
Manter os humanos verdadeiramente no comando
Se as armas autoaprendentes vierem para ficar, o único movimento honesto é desenhar contra a tentação de abandonar a responsabilidade.
Isso começa brutalmente cedo, na fase do quadro branco.
Qualquer equipa que construa ou implemente estes sistemas pode impor restrições duras: nada de decisões letais totalmente autónomas, vetos humanos obrigatórios, registos claros de cada atualização do modelo.
Não como remendos de última hora, mas como escolhas centrais de design.
Alguns laboratórios já simulam cenários de “pior dia”, e não apenas demonstrações de melhor caso.
Testam como um operador reage sob stress quando a IA pressiona por um ataque.
Quão fácil é dizer “não”.
Ou parar.
Ao nível prático, as forças armadas podem criar uma cultura em que ignorar a IA não é visto como fraqueza ou incompetência.
Isso parece abstrato, mas vive em hábitos muito concretos.
As sessões de debriefing podem perguntar explicitamente: “Quando discordaste do sistema hoje?”
Não para punir, mas para normalizar a dúvida.
O treino pode incluir exercícios em que a IA está deliberadamente errada, e os humanos são recompensados por detetar o erro.
Porque sejamos honestos: se o software estiver sempre certo nas simulações, ninguém o desafiará na guerra.
Todos já tivemos aquele momento em que a máquina parece mais inteligente do que nós.
Num campo de batalha, resistir a essa sensação pode literalmente ser a diferença entre crime de guerra e contenção.
Planeadores militares detestam trilhos burocráticos confusos, mas este é um que não podem evitar.
Documentação clara de quem fez o quê, quando, e com base em que recomendação, é a única forma de reconstruir mais tarde uma decisão letal.
Os registos devem mostrar: que versão do modelo correu nesse dia, que parâmetros estavam ativos, que pontuações de confiança apareceram no ecrã, que opções alternativas foram apresentadas.
É um trabalho tedioso e nada glamoroso.
Mas sem isto, as investigações colapsarão em memórias vagas e acusações cruzadas.
Um engenheiro de armamento disse-o de forma crua:
“Se não registarmos exatamente como o sistema pensa, um dia vamos acabar a dizer ‘foi a IA’ como se fosse um fantasma. E fantasmas não vão a tribunal.”
Para cidadãos e leitores longe do campo de batalha, a questão é que pressão podem exercer.
O debate público chega muitas vezes tarde, quando os sistemas já estão em uso.
Ainda assim, há algumas alavancas claras:
- Pedir aos representantes eleitos que apoiem proibições de sistemas letais totalmente autónomos.
- Exigir transparência sobre que ferramentas de IA o seu país exporta ou compra.
- Apoiar jornalistas e ONG que investigam guerra algorítmica.
- Questionar promessas de “zero baixas do nosso lado” que escondem riscos para os outros.
Sejamos honestos: ninguém lê documentos de contratação de defesa por diversão todas as semanas.
No entanto, é aí que muitas decisões silenciosas sobre autonomia e responsabilização são tomadas - em PDFs densos que quase ninguém abre.
Um futuro em que a guerra não tem rosto
Coloque-se na orla desta tendência e o futuro parece estranhamente distante e íntimo ao mesmo tempo.
Distante, porque a tecnologia está escondida por carimbos de confidencialidade, acrónimos e portas seguras.
Íntimo, porque a lógica por trás dela já está a moldar as nossas aplicações do dia a dia.
Quando a sua app de música, o seu feed de compras, as suas sugestões de notícias dizem aprender consigo, treinam-no a confiar em decisões opacas.
Armas autoaprendentes são essa lógica com as salvaguardas desligadas.
Se uma playlist o avaliar mal, salta uma música.
Se um drone de combate avaliar mal uma carrinha, pessoas morrem - e a única coisa que pode restar é um ficheiro de registo corrompido.
Há também um custo emocional profundo de que quase não falamos.
Os soldados já lutam com lesão moral: o fosso entre o que fizeram e o que acreditam ser certo.
Agora imagine voltar para casa com a consciência de que “o seu” sistema matou pessoas que nunca chegou a ver.
Sem confronto pessoal, sem ordens gritadas, sem rostos - apenas um padrão estatístico disparado de um continente de distância.
Como se faz o luto de uma morte acionada por uma linha de código que não escreveu?
Como se perdoa a si próprio por confiar num mapa de calor?
Do outro lado, comunidades que vivem sob o zumbido de drones enfrentam uma ferida diferente: a sensação de terem sido julgadas e executadas por algo que nunca soube sequer o seu nome.
A lei tentará acompanhar. Serão redigidos tratados. Serão traçadas linhas vermelhas, e depois testadas.
Alguns países prometerão nunca as cruzar; outros argumentarão que não podem dar-se ao luxo da contenção se os rivais avançarem a toda a velocidade.
Entretanto, engenheiros continuarão a melhorar modelos, a acrescentar parâmetros, a lançar patches.
Cada atualização vendida como mais segura, mais precisa, mais controlada.
Mas a pergunta central não encolhe: quando uma arma aprende sozinha, quem carrega o peso das suas escolhas?
Talvez o verdadeiro perigo não seja as máquinas tornarem-se demasiado inteligentes.
Talvez seja os humanos as acharem demasiado convenientes para culpar.
| Ponto-chave | Detalhe | Interesse para o leitor |
|---|---|---|
| Sistemas autoaprendentes reformulam a cadeia de comando | A IA desloca os humanos de decisores ativos para aprovadores passivos, sobretudo sob stress. | Ajuda a perceber como a responsabilidade pode desaparecer mesmo quando “há um humano no circuito”. |
| A responsabilização fragmenta-se | Engenheiros, oficiais, fornecedores e políticos partilham culpa parcial, enquanto o modelo continua a mudar. | Clarifica porque é tão difícil punir ataques ilegítimos na era de algoritmos adaptativos. |
| Salvaguardas concretas ainda são possíveis | Limites de design, vetos humanos, registos transparentes e pressão pública podem travar a deriva para o abate totalmente autónomo. | Mostra onde a sua voz e o seu voto podem realmente contar num domínio opaco. |
FAQ
- Já estão a ser usadas armas letais totalmente autónomas? Evidências sugerem pelo menos um ataque autónomo com drone na Líbia, e várias forças armadas estão a testar sistemas capazes de selecionar e atingir alvos com mínima intervenção humana.
- Qual é a diferença entre armas “automatizadas” e “autónomas”? Sistemas automatizados seguem regras fixas; sistemas autónomos e autoaprendentes podem adaptar o seu comportamento com base em novos dados, gerando decisões que ninguém programou explicitamente.
- O direito internacional consegue mesmo lidar com guerra guiada por IA? As leis existentes exigem juízo humano no uso de força letal, mas não foram escritas a pensar em código autoaprendente, o que cria grandes zonas cinzentas que juristas e diplomatas estão apenas a começar a cartografar.
- Porque não proibir simplesmente toda a IA nas armas? Alguns usos de IA, como sensores defensivos ou ferramentas de desconflicção, podem reduzir acidentes; o debate mais difícil é onde traçar a linha entre assistência e delegação de escolhas letais.
- O que podem cidadãos comuns fazer em relação a isto? Apoiar regulação de armas autónomas, sustentar investigações sobre guerra algorítmica e pressionar representantes sobre políticas de exportação e aquisição influencia até onde esta tecnologia vai.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário