미국과 이스라엘의 이란 공습 이후인 지난 3월 3일(현지시간) 이란 테헤란의 이슬람 혁명 법원을 찍은 위성 사진. 로이터연합뉴스
미국과 이스라엘의 이란 공격으로 중동 정세가 혼돈 속에 빠져들었다. 힘의 논리가 국제 질서를 압도하면서 전 세계는 군비 경쟁을 가속화하고 있다. 세계 4위의 핵전력을 갖춘 프랑스가 유럽 안보를 지키겠다며 핵탄두 확충을 선언했고, 유럽 각국도 재무장을 서두른다. 이란 최고지도자가 제거된 상황을 지켜본 북한이 핵보유국 지위를 더 공고히 하려 할 것이라는 전망 역시 설득력을 얻고 있다.
여러모로 우려스러운 이번 사태에서 특히 주목되는 건 미국의 대이란 군사작전에서 인공지능(AI)이 활용됐다는 보도다. 미 중부사령부는 앤트로픽의 AI 모델 클로드를 활용해 정보 평가, 표적 식별, 전투 시나리오 분석을 수행했다고 전해진다. 팔란티어의 국방용 플랫폼이 위성사진, 드론 영상, 감청 정보 등 방대한 데이터를 수집하면 클로드가 이에 기반해 구체적인 작전 시나리오를 제안하는 식이라고 한다.
이는 AI가 더 이상 단순한 보조 도구가 아닌, 생사를 결정짓는 핵심 설계자로 자리 잡았음을 보여준다. 군사 전문가들은 AI 도입의 당위성으로 효율성과 정밀함을 꼽는다. 수만개의 위성 사진과 감청 데이터를 인간 분석관이 일일이 대조하는 것은 불가능에 가깝다. 반면 AI는 단 몇 분 만에 적의 은신처를 찾아내고, 타격 시 발생할 부수 피해 확률을 소수점 단위로 계산해낸다. 지휘관에게는 이보다 매력적인 참모가 없을 것이다.
그러나 이 ‘정밀함’의 이면에는 무서운 함정이 있다. 이스라엘의 표적 생성 시스템 ‘라벤더’가 하마스 요원 한명을 잡기 위해 수십명의 민간인 희생을 ‘허용치’로 설정했다는 사실은 충격적이다. 미국의 이란 공습 과정에서 발생한 초등학교 폭격 사태는 AI가 제안한 ‘허용 가능한 피해 범위’가 현실에서 얼마나 참혹한 비극으로 치닫는지를 보여준다. 더 우려스러운 것은 AI가 갈등 상황에서 극단적 선택을 강화하는 경향이다. 영국 킹스칼리지 런던 연구팀의 시뮬레이션에서 최신 AI 모델들은 갈등이 고조될수록 외교적 해법 대신 ‘핵 공격’ 카드를 선택했다. 물론 최종 결정은 여전히 인간의 몫이므로 극단적인 시나리오를 상정할 필요는 없다는 반론도 있다. 과연 그럴까. 수만개의 데이터를 몇 초 만에 분석해 “이것이 최적”이라고 제시하는 시스템 앞에서, 인간 지휘관은 얼마나 자율적으로 판단할 수 있을까.
AI가 전장의 필수품이 돼가는 현실을 부정할 수는 없다. 한국을 포함한 각국이 ‘국방 AI’를 미래 전력의 핵심으로 삼는 흐름도 거스를 수 없을 것이다. 그러나 최소한 분명히 해야 할 선이 있다. 민간인은 공격하면 안 된다는 원칙, AI가 내린 군사적 판단에 대한 책임 소재, 자율살상무기에 AI 사용을 금지하는 국제적 합의다. 알고리즘이 설계하는 죽음에 무감각해지는 건, 인간으로서 너무 슬프지 않나.
이주영 편집장