1. Início
  2. Explorar
  3. Políticas de Segurança e Defesa
  4. Tecnologias aplicadas: IA, drones, biometria e armas autônomas

Tecnologias aplicadas: IA, drones, biometria e armas autônomas – Políticas de Segurança e Defesa | Tuco-Tuco

IA em defesa, sistemas autônomos letais (LAWS), drones, biometria, debate ético internacional.

Tecnologias Aplicadas: IA, Drones, Biometria e Armas Autônomas Introdução: a Quarta Revolução Militar O ambiente operacional contemporâneo é moldado por tecnologias emergentes que, segundo analistas de defesa e estrategistas, configuram uma Quarta Revolução nos Assuntos Militares (Revolution in Military Affairs — RMA) . A primeira RMA foi marcada pela pólvora e pelos exércitos de massa; a segunda, pela mecanização e aviação; a terceira, pela digitalização, armas de precisão e poder informacional; e a quarta, que ora se desenrola, tem como traços distintivos a inteligência artificial (IA) , a autonomia decisória das máquinas, a computação quântica, a biotecnologia, a robótica avançada, a fusão de dados em tempo real e a cibernética. Essas tecnologias não incrementam apenas a eficiência militar; elas alteram a natureza da guerra, da dissuasão e da própria soberania. A presença de IA em sistemas de comando e controle, a proliferação de drones armados de baixo custo e o desenvolvimento de sistemas de armas que podem selecionar e engajar alvos sem intervenção humana significativa suscitam questões estratégicas, éticas, jurídicas e políticas que os Estados — e os candidatos a concursos públicos — precisam dominar. Inteligência Artificial em Defesa e Segurança 2.1 Definição e aplicações Inteligência Artificial (IA) , em sentido amplo, é a capacidade de sistemas computacionais de executar tarefas que normalmente requerem inteligência humana, como reconhecimento de padrões, compreensão de linguagem natural, tomada de decisão e aprendizado com a experiência. No campo da defesa, as aplicações são vastas e incluem: C4ISR (Comando, Controle, Comunicações, Computadores, Inteligência, Vigilância e Reconhecimento) : fusão de dados de múltiplos sensores, análise preditiva de movimentações adversárias, geração de alertas automáticos e sugestão de cursos de ação ao comandante. Reconhecimento de imagens e padrões: visão computacional para identificar alvos, detectar movimentação e classificar objetos com alta precisão e velocidade, superando as capacidades humanas em fadiga e volume de dados. Logística inteligente: manutenção preditiva de equipamentos, otimização de cadeias de suprimentos em campanha, alocação dinâmica de recursos logísticos. Ciberdefesa: detecção e resposta automatizada a ataques cibernéticos em tempo real, análise de malware e identificação de vulnerabilidades. Sistemas autônomos: veículos terrestres, navais e aéreos não tripulados (VANTs, USVs, UUVs) capazes de navegação e missão autônomas. Treinamento e simulação: ambientes imersivos de realidade aumentada e virtual que se adaptam ao perfil de aprendizado do combatente. Operações de informação: detecção e atribuição de deepfakes, análise de redes de desinformação e contramedidas cibernéticas. 2.2 O elemento humano e o "meaningful human control" No centro do debate sobre IA militar está o conceito de controle humano significativo (meaningful human control) — expressão cunhada pela sociedade civil e adotada em fóruns multilaterais. Trata-se da exigência de que, em todas as operações, especialmente aquelas que envolvem o uso da força letal, o ser humano permaneça inserido no ciclo de decisão de forma que possa exercer deliberação ética, julgamento situacional e responsabilização jurídica. Três configurações de relação homem‑máquina são tradicionalmente distinguidas: Human‑in‑the‑loop (humano no circuito) : a máquina recomenda, mas o humano aprova cada engajamento. Ex.: drones armados MQ‑9 Reaper dos EUA, cujo disparo depende de autorização remota de um operador humano. Human‑on‑the‑loop (humano sobre o circuito) : o sistema opera autonomamente, mas está sob supervisão humana, que pode cancelar a ação a qualquer momento. Human‑out‑of‑the‑loop (humano fora do circuito) : o sistema seleciona o alvo e emprega a força sem qualquer intervenção humana. São os chamados Sistemas Letais de Armas Autônomas (LAWS) plenos. O cerne do debate ético e jurídico está precisamente nos sistemas out‑of‑the‑loop. Sistemas Letais de Armas Autônomas (LAWS — Lethal Autonomous Weapons Systems) 3.1 Definição e o debate internacional LAWS são sistemas de armas capazes de selecionar alvos e empregar força letal sem intervenção humana significativa. O debate sobre sua legalidade e legitimidade ocorre desde 2014 no âmbito da Convenção sobre Proibições ou Restrições ao Emprego de Certas Armas Convencionais que Podem Ser Consideradas Excessivamente Lesivas ou Geradoras de Efeitos Indiscriminados (CCW) , um tratado vinculado à ONU. O Grupo de Peritos Governamentais (GGE) sobre LAWS, reunido anualmente, tem produzido relatórios que consolidam os princípios orientadores. Em 2018, o GGE estabeleceu um consenso mínimo de que o Direito Internacional Humanitário (DIH) aplica‑se integralmente aos sistemas de armas autônomas e que: A responsabilidade humana por decisões sobre o uso da força deve ser preservada; Os Estados devem assegurar a observância dos princípios da distinção, proporcionalidade e precaução; A imprevisibilidade e a incapacidade de explicar decisões algorítmicas são incompatíveis com o DIH. Países como Brasil, Áustria, Nova Zelândia e Costa Rica defendem a proibição preventiva dos LAWS plenos (sem controle humano significativo), posição expressa em sucessivas declarações no GGE. O Brasil, em particular, defende que: É necessário um instrumento juridicamente vinculante (um tratado internacional) que proíba sistemas de armas que atuem sem controle humano significativo; A proibição deve ser preventiva, antes que essas armas se disseminem e criem fatos consumados tecnológicos; O Direito Internacional Humanitário e os direitos humanos não podem ser delegados a algoritmos. EUA, Rússia, China, Israel, Índia e Coreia do Sul resistem a uma proibição ampla, argumentando que esses sistemas podem, hipoteticamente, reduzir danos colaterais e salvar vidas de combatentes, e que é prematuro proibi‑los antes que a tecnologia se consolide. 3.2 Posição brasileira detalhada O Brasil, por meio do Itamaraty, do Ministério da Defesa e da Missão Permanente junto à ONU em Genebra, sustenta uma posição de vanguarda no debate multilateral. Os eixos da posição brasileira são: Antropocentrismo: o ser humano deve permanecer como centro decisório inalienável do uso da força. Responsabilização (accountability) : a delegação a máquinas cria uma "lacuna de responsabilização" (accountability gap) incompatível com o Estado de Direito e com a Justiça Penal Internacional. Compatibilidade com o Estatuto de Roma: o art. 8º do Estatuto de Roma, que tipifica crimes de guerra, pressupõe a existência de um agente humano imputável. Sistemas autônomos letais desafiam essa premissa. Aliança Sul‑Sul: o Brasil coordena posições com a América Latina e outros países do Sul Global que se sentem especialmente vulneráveis a essas tecnologias, uma vez que não possuem capacidade de desenvolvê‑las ou de se defender delas. Drones e VANTs (Veículos Aéreos Não Tripulados) no Brasil 4.1 Terminologia e marco regulatório civil O Brasil adota oficialmente o termo Veículo Aéreo Não Tripulado (VANT) para designar aeronaves operadas sem piloto a bordo. A Organização da Aviação Civil Internacional (ICAO) utiliza o termo Remotely Piloted Aircraft (RPA) , que se refere especificamente a aeronaves pilotadas remotamente por um operador humano, distinguindo‑as dos drones totalmente autônomos. O marco regulatório civil brasileiro é composto por: Regulamento da Aviação Civil Especial nº 94 (RBAC‑E nº 94) da ANAC, aprovado pela Resolução ANAC nº 419, de 2 de maio de 2017. Este regulamento estabelece os requisitos para operação de drones civis no Brasil, classificando‑os por peso (Classes 1, 2 e 3) e exigindo registro, seguro, avaliação de risco operacional e, para aeronaves acima de 250 g, identificação eletrônica. A Circular de Informação Aérea AIC N 18/22 e a MCA 94‑2 do Departamento de Controle do Espaço Aéreo (DECEA) , que regulam a integração de VANTs no espaço aéreo brasileiro, incluindo a obrigatoriedade do cadastro SISANT (Sistema de Aeronaves Não Tripuladas) da ANAC e a emissão de NOTAMs para operações em áreas controladas. A Lei nº 7.565, de 19 de dezembro de 1986 (Código Brasileiro de Aeronáutica) , que, em seus arts. 14, § 4º, e 15, § 1º, confere à autoridade aeronáutica a competência para regulamentar e fiscalizar o uso do espaço aéreo, alcançando os VANTs. 4.2 Emprego militar: a Força Aérea Brasileira A Força Aérea Brasileira (FAB) opera VANTs de diferentes classes. O 1º/12º Grupo de Aviação (Esquadrão Hórus) , sediado em Santa Maria (RS), opera os VANTs Hermes 450 (de vigilância) e Hermes 900 (de vigilância e reconhecimento armado), fabricados pela Elbit Systems (Israel). Essas aeronaves são utilizadas em missões de inteligência, vigilância, reconhecimento e aquisição de alvos (ISTAR). A Base Industrial de Defesa (BID) brasileira também investe no desenvolvimento de VANTs nacionais, como o VANT Nauru 1000C, da XMobots, e projetos da Embraer e sua subsidiária Atech, em parceria com o Ministério da Defesa. O desenvolvimento de capacidades próprias é um vetor importante da END e da busca por autonomia tecnológica. Biometria, Reconhecimento Facial e Identificação 5.1 A infraestrutura de identificação civil e criminal O Brasil tem investido pesadamente em sistemas biométricos integrados para identificação civil e criminal. Os principais são: SINIC — Sistema Nacional de Identificação Criminal: operado pela Polícia Federal, contém impressões digitais, dados faciais e registros criminais. ABIS — Sistema Automatizado de Identificação Biométrica: plataforma integrada que permite consultar, simultaneamente, bancos de dados biométricos de múltiplas agências (PF, polícias civis e militares), agilizando a identificação de suspeitos e foragidos. RNI / ICN — Registro Nacional de Identificação Civil: instituído pela Lei nº 13.444, de 11 de maio de 2017, e regulamentado pelo Decreto nº 10.046, de 9 de outubro de 2019. Tem como objetivo a criação de um número único de identificação civil — o CPF — e a integração progressiva dos registros de identificação de todos os brasileiros, com base em dados biométricos (impressões digitais, fotografia, assinatura). A Carteira de Identidade Nacional (CIN), com o CPF como número único, é a materialização desse projeto. 5.2 Reconhecimento facial e dilemas jurídicos O uso de tecnologias de reconhecimento facial em espaços públicos por órgãos de segurança pública e por concessionárias de transporte público (metrôs, aeroportos) tem suscitado intenso debate sobre privacidade, proteção de dados, viés racial e possibilidade de erros de identificação. A LGPD (Lei nº 13.709/2018) protege dados biométricos como dados pessoais sensíveis (art. 5º, II), cujo tratamento é submetido a regime mais rigoroso que os dados comuns. O art. 11 da LGPD exige que o tratamento de dados sensíveis tenha o consentimento específico e destacado do titular ou se fundamente em uma das hipóteses legais expressas (ex.: cumprimento de obrigação legal, execução de políticas públicas, proteção da vida). O Marco Legal da IA (PL 2.338/2023) , em tramitação no Senado, classifica sistemas de identificação biométrica à distância em espaços públicos como sistemas de alto risco, submetendo‑os a requisitos de avaliação de impacto, governança de dados, transparência e supervisão humana. 5.3 Reconhecimento facial e controle jurisdicional — ADPF 722 no STF O uso indiscriminado do reconhecimento facial por órgãos públicos tem sido objeto de escrutínio judicial. No Supremo Tribunal Federal, a ADPF 722 (Rel. Min. André Mendonça), ajuizada pelo Partido Socialista Brasileiro (PSB), discute a conformidade constitucional da utilização de sistemas de reconhecimento facial para fins de segurança pública, questionando a falta de regulamentação legal adequada e o risco de violação a direitos fundamentais como privacidade e não discriminação. Paralelamente, na esfera da Justiça Estadual de São Paulo, a 6ª Vara de Fazenda Pública da Capital concedeu, em abril de 2022, uma tutela de urgência em Ação Civil Pública (ACP) movida pela Defensoria Pública do Estado de São Paulo e por organizações de defesa de direitos digitais (como o Instituto Brasileiro de Defesa do Consumidor — IDEC), determinando a suspensão do uso do sistema de reconhecimento facial no Metrô de São Paulo, sob o fundamento de ausência de previsão legal específica, violação à LGPD e risco de discriminação racial. A decisão ilustra o ativismo judicial de primeiro grau sobre o tema, enquanto se aguarda um pronunciamento definitivo do STF na ADPF 722 e a aprovação do Marco Legal da IA. Marco Legal da Inteligência Artificial (PL 2.338/2023) O Brasil está em vias de aprovar seu primeiro marco legal abrangente sobre inteligência artificial. O Projeto de Lei nº 2.338/2023, de autoria do Senador Rodrigo Pacheco, é fortemente inspirado no AI Act da União Europeia (Regulamento (UE) 2024/1689), e estrutura‑se com base em níveis de risco: Risco excessivo: práticas proibidas, como sistemas de pontuação social (social scoring) pelo governo; sistemas que explorem vulnerabilidades de crianças, idosos ou pessoas com deficiência; e armas autônomas que escapem ao controle humano significativo. O art. 13 do projeto proíbe expressamente "sistemas de armas autônomas que não permitam controle humano significativo". Alto risco: sistemas de identificação biométrica à distância; sistemas utilizados em infraestruturas críticas; seleção e recrutamento de pessoal; concessão de crédito; administração da justiça; e migração e asilo. Esses sistemas estão sujeitos a avaliação de impacto, governança documentada e supervisão humana. Risco limitado e mínimo: os demais sistemas, sujeitos aos princípios gerais de transparência, não discriminação, supervisão humana e prestação de contas. O projeto cria a Autoridade Nacional de Proteção de Dados (ANPD) como a autoridade coordenadora da regulação de IA, estabelecendo um regime de responsabilização civil para fornecedores e operadores de sistemas de IA. Computação Quântica e seus Impactos A computação quântica é a próxima fronteira tecnológica com potencial disruptivo sobre a segurança da informação. Computadores quânticos, que operam com qubits (bits quânticos), são capazes de realizar certos cálculos exponencialmente mais rápido que os supercomputadores clássicos. Uma das áreas mais impactadas é a criptografia: algoritmos de criptografia assimétrica amplamente utilizados (RSA, ECC, criptografia de curvas elípticas) são vulneráveis a ataques quânticos pelo algoritmo de Shor. A resposta da comunidade internacional é o desenvolvimento de criptografia pós‑quântica (PQC) — padrões criptográficos resistentes a ataques quânticos. O NIST (National Institute of Standards and Technology) dos EUA publicou, em 2024, os primeiros padrões de PQC, e a migração global para esses novos algoritmos está em curso. O Brasil acompanha o tema por meio da RNP (Rede Nacional de Ensino e Pesquisa) , do MCTI e, no âmbito da defesa, do Programa de Ciência, Tecnologia e Inovação de Interesse da Defesa Nacional. O Espaço Sideral como Quinto Domínio Operacional O espaço sideral foi formalmente reconhecido pela OTAN em sua Cúpula de dezembro de 2019 como o quinto domínio operacional, ao lado de terra, mar, ar e ciberespaço. Essa declaração reflete a crescente militarização do espaço: testes de armas antissatélite (ASAT) realizados por China (2007), EUA (2008), Índia (2019) e Rússia (2021) demonstram a vulnerabilidade de satélites de comunicação, navegação e observação da Terra, essenciais para a vida civil e militar. A possível fragmentação do espaço com destroços de satélites destruídos — a chamada Síndrome de Kessler — é uma ameaça que afeta todos os países, independentemente de terem participado dos testes. O Brasil, que opera satélites como o SGDC (Satélite Geoestacionário de Defesa e Comunicações Estratégicas) e o CBERS (parceria com a China) , defende em foros multilaterais o uso pacífico do espaço e a prevenção de uma corrida armamentista espacial, participando do Comitê das Nações Unidas sobre os Usos Pacíficos do Espaço Exterior (COPUOS) . Para a prova IA militar: aplicações em C4ISR, logística, simulação, ciberdefesa e sistemas autônomos. LAWS (Sistemas Letais de Armas Autônomas) : debate na CCW da ONU desde 2014; conceito de meaningful human control. Três configurações: human‑in‑the‑loop, human‑on‑the‑loop, human‑out‑of‑the‑loop. Posição brasileira: defesa de um tratado juridicamente vinculante de proibição preventiva; antropocentrismo; responsabilização humana inalienável. VANT/RPA no Brasil: marco regulatório civil — ANAC (RBAC‑E nº 94, Resolução ANAC 419/2017) e DECEA (MCA 94‑2, AIC N 18/22, SISANT); uso militar — Esquadrão Hórus (FAB) com Hermes 450/900; desenvolvimento de VANTs nacionais na BID. Biometria e reconhecimento facial: SINIC, ABIS, RNI/ICN (CPF como número único, Lei 13.444/2017). Dados biométricos são dados sensíveis sob a LGPD (art. 5º, II, e art. 11). STF, ADPF 722 (Rel. Min. André Mendonça): discute a constitucionalidade do reconhecimento facial para segurança pública, em andamento. Na Justiça Estadual de São Paulo, ACP da Defensoria Pública obteve, em abril de 2022, a suspensão do sistema no Metrô de São Paulo. PL 2.338/2023 (Marco Legal da IA) : estrutura de risco (excessivo, alto, limitado, mínimo); proibição de armas autônomas sem controle humano significativo; ANPD como autoridade coordenadora. Computação quântica: ameaça à criptografia assimétrica atual (algoritmo de Shor); resposta com criptografia pós‑quântica (PQC) — padrões NIST 2024. Espaço sideral: quinto domínio operacional (OTAN, 2019); risco da Síndrome de Kessler; defesa brasileira do uso pacífico do espaço.