최근의 딥러닝 시스템은 가장 불가사의하다. 2016년 3월 구글의 딥마인드(DeepMind)가 개발한 딥러닝 알고리즘인 알파고(AlphaGo)는 고대 중국 전략 게임인 바둑에서 세계 최강자 중 하나인 이세돌을 무너뜨렸다. 경기 도중에 알파고는 고도로 창의적인 수를 둠으로써 전문가들을 혼란에 빠뜨렸다. 바로 다음 달 중국의 군사과학원은 이 경기가 주는 의미를 연구하기 위한 워크숍을 열었다. 중국의 군사 혁신 분야 전문가인 엘사 카니아(Elsa Kania) 박사는 “중국의 군사 전략가들이 염두에 두어야 할 알파고 승리의 교훈은 AI가 전쟁과 비교될 수 있는 게임에서 인간보다 더 우수한 전술과 책략을 만들어 낼 수 있다는 사실”이라고 말했다.
게임 해볼래?
2018년 12월 딥마인드의 또 다른 프로그램 알파스타(AlphaStar)가 실시간으로 진행되는 비디오게임 스타크래프트II의 강력한 게이머를 격파했다. 바둑처럼 차례차례 진행되는 방식도 아니었고, 상대가 누구인지도 모르는 상태였다. 알파스타는 알파고보다 더 자유롭게 경기에 임했다. 많은 장교들은 이 같은 게임 수행 능력이 군대의 역사에서도 손에 꼽히는 유형의 독창적이고 정교한 군사 훈련으로 이어지기를 바라고 있다. 미 국방부의 상업용 기술 시험 부서인 방어 혁신 본부(the Defence Innovation Unit)의 마이클 브라운(Michael Brown) 국장은 AI가 투입되는 “전략적 추론”이 본부의 최우선 과제 중 하나라고 언급했다.
그러나 인간의 창의성을 뛰어넘은 알고리즘은 인간의 이해 범위를 벗어날 수도 있다. 그렇게 되면 법률, 도덕 그리고 신뢰와 관련된 문제가 생긴다. 전쟁 법률은 민간인 피해와 군사적 이득 사이의 비례 원칙이나 필요성 원칙 같은 개념에 대한 일련의 판단에 따른다. 왜 이 목표물이 선택됐는지 설명하지 못하는 소프트웨어는 법률을 준수하지 못할 것이다. 설사 준수했다 하더라도 사람들은 표면적으로는 ‘마법의 8번 공(질문에 대한 스무 가지 답을 무작위로 보여 주는 장난감)’처럼 보이는 의사 결정 보조 도구의 판단을 믿지 않을 것이다.
영국 공군 정보 사령관 키스 디어(Keith Dear)는 이렇게 묻는다. “AI가 군사 전략에 적용되고, 인간이 고려할 수 있는 작전의 범주를 넘어서서 다중적인 상호 작용에 따른 확률적인 추론을 제시할 때 우리는 어떻게 해야 할까?”, “인간이 이해하지 못하는 행동 방침을 제시한다면 어떻게 할 것인가?” 그는 AI가 루마니아 수도 몰도바에서 일어난 러시아의 군 급습에 대한 대응으로 아제르바이잔의 수도 바쿠에서 열리는 오페라에 후원금을 내라는 제안을 할 수도 있다고 설명했다. 이런 초현실적인 전략은 적군이 아니라 아군을 당황하게 만들 수 있다. AI의 이런 결정은 앞선 정치적 사건들을 바탕으로 도출된 것이지만, 지휘관들이 즉각적으로 받아들일 수 있는 전략은 아니다.
디어는 그러나, 인간이 불가해성과 효율성 사이의 거래를 받아들일 것이라고 전망했다. “오늘날의 기술적인 한계에도 불구하고 AI는 현실에 가까운 거대한 규모의 시뮬레이션을 거쳐 실제 전투의 의사 결정을 도울 겁니다. AI가 전투를 장악하지 않는다면 말이죠.”
말도 안 되는 얘기가 아니다. 리처드 배런 경은 영국 국방부가 이미 현실 세계의 복합적인 환경을 모방한 가상의 클라우드 기반 환경에서 기술을 시연할 수 있는 소프트웨어를 사들이고 있다고 전했다. 이 소프트웨어는 ‘포트나이트’와 같은 온라인 비디오게임을 거대한 스케일로 확대한 군사 버전 게임이라고 할 수 있다. 게임 회사인 임프로버블(Improbable)과 비행 시뮬레이터로 잘 알려진 CAE가 개발했는데, 개방형 표준을 사용하고 있어서 기밀 정보부터 실시간 날씨 데이터까지 모든 정보를 연결할 수 있다. 리처드 경은 방대한 데이터와 그것을 옮길 수 있는 네트워크, 데이터를 처리할 수 있는 클라우드 컴퓨팅이 존재하는 한 “이 소프트웨어는 명령과 통제가 이뤄지는 방식에 혁신을 일으킬 것”이라고 말했다. 새로운 시스템은 “NSC부터 실무 지휘관에 이르는 하나의 종합적인 명령 체계”를 가능하게 만들 것이다.
인간이 없는 자동화
서구 국가들은 AI가 활용되더라도 사람이 기계를 감독하면서 핵심 역할을 할 것이라고 주장하고 있다. 그러나 해당 국가 정부의 관계자들조차 이런 생각에 동의하지 않는다. 디어 사령관은 “인간은 의사 결정 과정에 참여하지 않아 정보에서 배제되거나, 작전부터 전략까지 다양한 의사 결정을 하는 팀에서 축출될 가능성이 커 보인다”고 말했다. 중국 군사 전문가인 엘사 카니아 박사에 따르면, 중국 군사과학원 보고서에도 “전투는 인간의 인지 능력을 뛰어넘는 수준으로 빨라질 것”이라는 내용이 있다. 그 결과는 자율 무기뿐 아니라 자동화된 전쟁터에도 영향을 미칠 것이다. 전쟁의 초기 단계에서 상호 연결된 AI 시스템은 미사일 발사대, 항공 모함 등 목표물을 정하고, 가장 효율적인 순서로 파괴할 수 있는 빠르고 정확한 공격을 실행할 것이다.
이런 변화가 초래할 결과는 여전히 불투명하다. 로렌스 리버모어 국립 연구소의 재커리 데이비스(Zachary Davis) 박사는 빠르고 정확한 공격 가능성은 “기습의 위험에 대한 인지 수준을 높여 (힘의 균형에 의한) 안정성을 훼손할 수 있다”고 지적한다. 그러나 동시에 AI는 기습 공격의 신호를 감지해 공격을 피할 수 있도록 도와주는 역할도 할 수 있다. 반대로 1960년대 베트남 정글에 투입됐던 센서로 무장한 장비들처럼 비용은 비싸고 효과는 없는 실패한 계획이 될 수도 있다. 그럼에도 불구하고, 어떤 권력도 경쟁 세력보다 뒤처지는 위험을 원치 않는다. 그리고 이런 결정 과정에는 기술만이 아니라 정치가 영향을 미친다.
AI에 대한 국방부의 예산은 2016년 대형 기술 기업들이 투입한 200억~300억 달러와 비교하면 극히 일부다. 아마존과 마이크로소프트가 국방부와의 클라우드 컴퓨팅 계약에 100억 달러 가까이 쓴 것처럼 많은 미국 기업들이 국방비를 부담하는 것을 받아들이고 있다. 그러나 일부 기업들은 마음을 바꾸고 있다. 2018년 6월, 구글은 국방부와 체결한 900만 달러의 프로젝트 메이븐 협업 계약을 연장하지 않기로 했다. 4000명의 직원들이 회사가 “전쟁 기술”에 개입하는 것에 항의한 이후의 결정이었다.
반면 중국에서는 기업들이 국가 서비스에 쉽게 동원될 수 있다. 개인 정보 보호법은 사소한 불편에 가깝다. 지난 6월, 미국 국방부 부장관을 지낸 로버트 워크(Robert Work)는 “데이터가 AI의 연료 역할을 한다고 본다면, 중국은 전 세계에서 가장 큰 구조적 이점을 갖게 되는 것”이라고 경고했다. 민간인의 개인 정보가 군사 알고리즘에 연료 역할을 할 수 있을지는 알 수 없지만, 이 문제는 군 지휘부의 심리에 영향을 줄 수 있다. 8월 30일 잭 섀너한(Jack Shanahan) JAIC 국장은 이렇게 말했다. “우리의 잠재 적국이 AI로 무장한 군대를 보유하고 있는데, 우리는 그렇지 않은 미래는 상상하고 싶지 않다.”
* 관련 콘텐츠를 더 읽고 싶으신가요? 아래 키워드를 클릭해 보세요.
#정치 #안보 #테크 #과학 #AI #데이터 #미국 #중국 #이코노미스트