지금, 깊이 읽어야 하는 이유
인공지능이 지휘하는 미래의 전쟁,
첨단 기술은 전쟁터뿐 아니라 세계를 더 위험한 곳으로 만들고 있다.
인공지능 기술이 전쟁터에 침투하고 있다. 미국과 중국, 영국 등 주요 국가들은 AI 전투 팀을 꾸리거나 방산 기업이 개발한 첨단 기술을 사들이면서 AI 전쟁 시대에 대비하고 있다. AI는 단순한 데이터 수집과 가공부터 자율 무기 조종, 전투 지휘까지 폭넓은 분야에 적용될 전망이다. 문제는 AI의 역량이 인간을 초월한다는 점이다. 초인적 속도와 정확성을 갖춘 AI는 인간이 생각하고, 판단하기 전에 실행할 수 있다. 외교적 협상력과 전략을 바탕으로 유지되고 있는 세계의 힘의 균형은 무너질 지도 모른다. 데이터에 의존하는 AI가 인간이 이해하기 어려운 명령을 내릴 위험성도 있다. 윤리적, 법적 책임의 소재를 파악하기도 어렵다. AI가 이끄는 전쟁은 인류가 경험한 적 없는 새로운 위협이 될 것이다.
* 14분이면 끝까지 읽을 수 있습니다(A4 11장 분량).
The Economist × BOOK JOURNALISM
북저널리즘이 영국 시사 주간지 《이코노미스트》와 파트너십을 맺고 커버스토리 등 핵심 기사를 엄선해 소개합니다. 《이코노미스트》는 격조 높은 문장과 심도 있는 분석으로 국제 정치, 경제, 사회 이슈를 다루어 왔습니다. 빌 게이츠, 에릭 슈미트, 헨리 키신저 등 세계적인 명사들이 애독하는 콘텐츠를 매주 수요일 오후 4시, 북저널리즘에서 만나 보세요.
저자 소개
영국 시사 주간지 《이코노미스트》는 “우리를 전진하게 하는 지혜와 그 전진을 방해하는 변변치 못한 무지 사이의 맹렬한 논쟁”에 참여하기 위해 1843년에 창간되었다. 전 세계에서 벌어지는 정치, 경제, 사회 이슈를 전문가들의 시각으로 분석하고 의견을 제시한다. 격조 높은 문체와 심도 있는 분석으로 유명하다.
이새누리는 서강대학교에서 국어국문학과 경영학을 공부하고, 프랑스 경영 대학인 오덴시아낭트에서 책임경영 MBA를 마쳤다. 2007년 국회에서 기자 생활을 시작한 뒤 주로 경제와 산업 분야를 취재했다. 현재 JTBC 경제산업부에서 일하고 있다. 역서로 《내가 골드만삭스를 떠난 이유》가 있다.
키노트
이렇게 구성했습니다
1화. 인공지능과 전쟁
컴퓨터의 역할이 커지면 위험도 커진다
핵전쟁 이후의 새로운 공포
2화. 전투 알고리즘
미래의 전쟁터는 완전히 다를 것이다
라이즈 오브 더 머신
개선하고, 개선하고, 개선하라
AI의 쿠데타
게임 해볼래?
인간이 없는 자동화
먼저 읽어 보세요
미 국방부는 지난 2월 발표한 첫 AI 전략 문서에서 AI가 “미래 전쟁터의 성격을 바꿀 것”이라고 선언했다. 2018년 여름 출범시킨 합동 AI 센터(JAIC)와 AI국가안전위원회는 지난 3월 첫 미팅을 가졌다. 미 국방부는 2020년 AI 분야에 약 10억 달러, AI 기술을 바탕으로 한 무인, 자동화 역량에는 AI 분야의 4배가 넘는 예산을 배정하고 있다. 이에 앞서 2017년 2월에는 딥러닝 알고리즘이 “인간과 비슷한 수준의 기능을 수행할 수 있다”고 결론 내렸다. 이후 ‘프로젝트 메이븐’이라는 이름으로 알려진 ‘알고리즘 전투’ 팀을 꾸렸다.
에디터의 밑줄
“펜실베이니아대 마이클 호로위츠는 AI를 내연 기관이나 전기에 비유한다. 무수하게 많은 형태의 응용이 가능한 활성화 기술이라는 의미다. 그는 군사 분야의 AI 적용 방법을 세 가지로 분류한다. 하나는 기계가 사람의 감독 없이 행동할 수 있는 형태다. 또 하나는 대규모 데이터를 처리하고 해석하는 것이다. 세 번째는 전쟁에 필요한 명령과 통제를 돕거나, 심지어 지휘하는 것이다.”
“자율성의 장점은 명백하다. 로봇은 사람에 비해 값이 싸고 더 단단하며, 쉽게 버릴 수 있다. 그러나 피 한 방울 흘리지 않고 전쟁터를 돌아다닐 로봇은 임무를 수행할 수 있을 정도로 지능이 높아야 한다. 지능이 낮은 드론은 전쟁에서 오랫동안 살아남을 수 없을 것이다. 심각한 문제는 또 있다. 총을 가지고 있는 우둔한 로봇은 전쟁 범죄를 일으킬 수도 있다.”
“소프트웨어는 기지를 반복적으로 관찰하면서 일상적인 배치 상태와는 다른 불규칙한 움직임들을 구별해 낼 수 있게 된다. 명백한 변화가 나타난다면 정보 분석가들에게 보고된다.”
“2004년부터 2008년까지 실시된 초기 실험에서 RAID는 사람보다 더 훌륭한 정확성과 속도를 자랑했다. 바그다드에서 실시된 2시간의 시뮬레이션 게임은 사람으로 구성된 다수의 팀이 RAID 또는 사람들과 맞붙는 방식이었다. 사람으로 구성된 팀의 절반 이상은 어느 쪽이 사람이고 어느 쪽이 소프트웨어인지 인식하지 못했다.”
“인간의 창의성을 뛰어넘은 알고리즘은 인간의 이해 범위를 벗어날 수도 있다. 그렇게 되면 법률, 도덕 그리고 신뢰와 관련된 문제가 생긴다. 전쟁 법률은 민간인 피해와 군사적 이득 사이의 비례 원칙이나 필요성 원칙 같은 개념에 대한 일련의 판단에 따른다. 왜 이 목표물이 선택됐는지 설명하지 못하는 소프트웨어는 법률을 준수하지 못할 것이다.”