상술한 기술들이 딥페이크 탐지를 위한 완벽한 기술은 아니다. 눈 깜빡임을 활용한 탐지 기술은 딥페이크가 이미지를 학습하는 과정에 눈을 감은 이미지를 추가하는 것으로 쉽게 우회할 수 있고, 픽셀 불일치나 낮은 해상도처럼 딥페이크 영상의 조악한 품질을 활용한 탐지 기술은 딥페이크가 더 많은 이미지를 학습하면서 무력화될 가능성이 크다. 해당 탐지 기술이 해상도나 품질이 낮은 이미지에만 제한적으로 작동할 수 있다는 뜻이다. 지피캣의 앙고라, 마루 프로젝트는 원본 영상이 없으면 조작 여부에 대한 식별이 불가능하다는 한계를 가진다. 즉, 지피캣의 프로젝트는 수많은 중복 이미지가 웹을 떠도는. 유명인사의 영상 탐지에 특화돼 있다. 만약 유명인사가 아닌 일반인이 동영상을 찍고 웹이 아닌 로컬 장치에 저장해 둔 이미지를 활용해 상대의 얼굴을 바꿔치기한 후 결과물을 온라인에 업로드하면 앙고라와 마루 중 어떤 알고리즘도 내용의 변경 여부를 탐지할 수 없다. 현재는 딥페이크 기술 적용을 위해 온라인상의 이미지를 학습에 활용하기 때문에 이런 문제가 발생할 가능성이 작지만, 딥페이크 기술과 개별 이미지 저장 장치의 발달과 함께 문제의 가능성은 커질 것이다. 알고리즘이 출시되기 전에 업로드된 모든 콘텐츠에 대해 기술을 적용하기 어렵다는 한계도 극복해야 하는 과제다.
[15]
딥페이크 탐지 기술은 지금도 여러 연구팀에 의해 개발되고 있으며, 앞으로 더욱 발전할 것으로 기대된다. 그러나 변치 않을 문제는 탐지 기술이 늘 생산 기술에 뒤처질 수밖에 없다는 점이다. 악용은 언제나 대응에 앞서기에, 딥페이크 이용자는 어떤 식으로든 탐지 소프트웨어를 우회할 가능성이 크다. 아울러 기술적 해결책은 활용되지 않으면 결국 무용지물이 되고 만다. 현재 콘텐츠 공유 환경의 분산성을 고려할 때 일부 딥페이크 영상은 필연적으로 탐지 소프트웨어를 거치지 않고 이용자에게 가닿을 것이고, 이러한 사례들은 탐지 기술을 무력화할 것이다.
모든 딥페이크 영상이 악의적인 것은 아니라는 점에서도 기술적 대응의 효용을 다시 평가할 필요가 있다. 딥페이크가 만들어 낸 합성 포르노 영상은 명백하게 악의적이고 반사회적이다. 그러나 동시에 몇몇 창작 영상은 정치적 논평이나 풍자의 기능을 수행할 수 있다. 앞선 사례에서 보았듯, 언론 인터뷰나 내부자 제보를 위해 영상 내 특정인의 얼굴을 일부러 가려야 하는 경우도 존재한다. 이 경우에도 모두 딥페이크 탐지 기술이 자동으로 적용되는 것이 옳을까? 이용자 신고 방식과 달리 기술적 대응은 딥페이크가 합성한 영상의 ‘내용’에는 신경을 쓰지 않는다. 영상의 속성 외 다른 메타 데이터를 활용하거나 탐지 기술과 인간의 개입을 적절히 혼용하는 등의 노력이 필요한 것은 이 때문이다.
이처럼 무조건 딥페이크 탐지를 자동화하는 것만이 능사는 아니며, 기술적 대응이 딥페이크 이슈에 대한 완전한 해결책이라고 하기도 어렵다. AI 기술을 활용하여 AI 기술에 기반을 둔 딥페이크에 대응하는 것은 끊임없이 쫓고 쫓기는 게임, 그것도 쫓는 자의 승률이 현저히 낮은 게임이 될 수밖에 없다. 다만, 한 가지 확실한 것은 딥페이크 탐지 기술이 영상 조작을 매우 어렵고 시간이 소요되는 작업으로 만들 수는 있다는 점이다. 이 점에서 딥페이크 탐지 기술은 악의적 딥페이크 기술에 대한 대응으로서 충분히 가치를 지니며, 딥페이크 기술과 함께 탐지 기술이 어떻게 발전하는지를 눈여겨볼 필요가 있다.
법령 및 가치 충돌의 딜레마
딥페이크로 인한 명예훼손이나 허위정보의 문제가 확산하면서 이에 대응할 수 있는 법률적 방안
[16]에 대한 논의도 활발히 이뤄지고 있다. 전문가들은 현행법상 저작권(copyright)이나 퍼블리시티권(right of publicity), 명예훼손이나 개인 정보 침해, 성희롱에 관한 법률 등으로 딥페이크가 초래하는 문제에 대응할 수 있다고 말한다. 예를 들어 딥페이크 합성 영상이 포르노물일 경우 대부분 플랫폼의 이용 약관에 따라 콘텐츠 삭제를 즉시 요청할 수 있다. 합성 영상이 내용 면에서 크게 문제가 없더라도 사전 동의 없이 자신의 이미지를 상업적 혹은 불법적인 목적으로 사용했다는 것을 이유로 소송을 제기할 수 있다.
국내에서는 딥페이크로 다른 사람의 얼굴을 사용해 영상을 제작하는 경우 초상권 침해로 고소를 당하거나 정보통신망 이용 촉진 및 정보보호 등에 관한 법률 제70조(거짓 사실 유포와 명예 훼손)에 의거해 처벌될 수 있다. 딥페이크를 포르노 합성에 사용하는 경우, 국내에서는 포르노 동영상 제작 자체가 불법이기에 형법 제244조(음화 제조 등)에 따라 제작 및 배포, 소지 자체로도 처벌을 받을 수 있다.
미국의 경우 연방상표법(Lanham Act) 제43조를 딥페이크로 인한 허위 영상 유통에 적용할 수 있을 것이다. 연방상표법 제43조는 부정 경쟁을 규제하기 위한 조문이지만 사업자 간 경쟁 관계를 넘어 특정인이 유명인의 명성을 상업적으로 도용하거나 악의적으로 패러디함으로써 이득을 얻는 행위를 막는 근거로 활용되는데, 딥페이크를 통한 영상 조작을 악의적 패러디나 초상권 도용과 같은 행위로 규정해 이를 적용해 볼 수 있다.
주목할 점은 딥페이크로 인한 사회 문제에 대응하기 위해 별도의 법안을 제정하려는 시도 또한 진행되고 있다는 점이다. 우리나라에서는 2020년에 딥페이크 관련 법률이 개정, 강화되었다. 대표적으로 국가인권위원회가 ‘인공지능 산업 진흥에 관한 법률안’(2020)에서 딥페이크를 활용한 불법 음란 영상물이 인간의 존엄성에 심각한 위협이 될 수 있음을 보여 주는 사례라 밝힌 바 있다. 성폭력 범죄의 처벌 등에 관한 특례법에 제14조의2가 신설돼 (2020년 3월 5일 국회 본회의 통과, 6월 25일부터 시행) 딥페이크 기술을 이용해 음란물을 만들거나 배포하는 경우 처벌할 수 있는 근거가 마련되기도 했다.
미국의 경우 연방정부 차원에서 딥페이크 규제를 위한 법안이 여럿 제출됐으나 통과되지는 못한 상태다. 대표적으로, 2018년 12월 21일 벤 사세(Ben Sasse) 상원 의원이 최초로 딥페이크의 악의적 영상 생성 및 유통을 범죄로 규정하는 법안인 ‘악의적 딥페이크 금지법(Malicious Deep Fake Prohibition Act of 2018)’을 의회에 제출한 바 있다.
[17] 이 법안은 “상거래 수단이나 시설을 사용하여 불법으로 배포할 의도 또는 연방, 주 또는 지방 법률에 따른 불법 행위를 조장할 의도로 딥페이크를 만드는 행위”를 불법으로 규정하고 있다. 법안은 딥페이크 영상의 생산자뿐 아니라 페이스북과 같은 유통 플랫폼의 책임도 묻고 있다. 구체적으로, 딥페이크 기술을 활용해 인터넷으로 불법적 행위를 하는 개인뿐 아니라 유통 플랫폼이 딥페이크를 유통하고 있음을 ‘인지하는’ 경우도 벌금이나 2년 이하의 징역을 부과할 수 있다는 내용을 담고 있다. 딥페이크가 폭력을 조장하거나 정부 또는 선거를 방해하는 경우 처벌 수위는 최대 10년으로 늘어난다.
[18]
이 법안이 의회 통과에 실패한 이유는 해당 법안들이 여러 측면에서 기존의 가치와 충돌하거나 새로운 문제를 야기할 가능성이 크기 때문이다.
[19] 전문가들은 ‘악의적 딥페이크 금지법’이 이미 법으로 금지된 행위를 다시 범죄로 만드는 법률에 불과하다고 비판한다. 유언비어를 퍼트려 선거를 방해하거나, 없는 사실로 정적(政敵)을 음해하는 일은 어떤 도구를 사용했든 그 본질은 동일하고, 이미 연방・주・지방 법률에 따른 민사나 형사 소송을 통해 처벌이나 구제가 가능한 사안이라는 것이다. 이미 범죄 또는 불법 행위로 규정된 사안을 굳이 딥페이크라는 ‘수단’에 초점을 맞춰 별도의 연방 형사법을 추가할 필요가 없다는 지적이다. 아울러 딥페이크 영상의 배포자에게 과도한 책임이 부과된 데 대한 우려도 상당하다. 영상 플랫폼이 처벌을 두려워해 딥페이크라고 신고, 보고된 모든 대상을 즉각 삭제해 버릴 때 발생할 수 있는 부작용을 생각해야 한다는 것이다.
2019년 6월 미국 하원에 발의된 ‘딥페이크 책임법안(DEEP FAKES Accountability Act)’ 역시 최종적으로 의회를 통과하지 못하고 폐기됐다. 해당 법안은 다른 사람의 신분을 사칭할 수 있는 기술적으로 조작된 온라인 콘텐츠, 즉 딥페이크 영상을 만드는 자에게 영상 제작자가 누구인지 밝히는 디지털 워터마크의 사용을 의무화하고, 해당 영상이 조작된 것임을 글이나 소리를 통해 명확하게 고지하도록 하는 것이 주요 내용이다. 딥페이크가 일으킬 수 있는 부작용을 생각하면 당장 법으로 만들어 시행해야 할 것 같지만, 딥페이크의 긍정적인 활용 방안을 생각하면 이 법안에도 미묘한 구석이 있다. 예를 들어 딥페이크로 합성된 배우가 나오는 영화에서 배우가 나오는 장면마다 제작자의 로고가 나타나거나 ‘이 배우의 얼굴은 딥페이크로 합성된 것입니다’라는 자막이 깜빡인다면, 우리는 영화에 몰입할 수 있을까. 영화의 처음과 마지막에만 표시하는 방안도 고려할 수 있겠지만 이 경우 고지 자체의 효과를 기대하기 어렵다. 영상을 건너뛰면서 핵심 장면만 찾아보는 사람들에게는 영상의 앞 또는 뒤에 있는 딥페이크 고지가 눈에 띄지 않을 것이기 때문이다.
이러한 이유로 미국에서 딥페이크에 대한 법제도적 대응은 주 단위로, 한시적 형태로 이뤄진다. 선거처럼 딥페이크로 인한 허위정보의 사회적 폐해가 명백하게 예상되는 경우에 한하는 것이다. 가령, 미국 캘리포니아주는 2019년 9월에 미국에서 처음으로 2023년까지 한시적으로 딥페이크를 규제할 수 있도록 선거법을 개정했다. 공직 후보를 선출하기 위한 선거일로부터 60일 이내에 실제 악의를 갖고(with actual malice) 후보자의 명예를 훼손하거나, 유권자의 투표 행위를 기만하려는 의도를 갖고 제작된 기만적인 오디오․비주얼 미디어를 배포하지 못하도록 하는 것이 주요 내용이다. 흥미로운 것은 이 법이 딥페이크라는 용어를 사용하지 않고 있음에도 실제 내용은 딥페이크에 기반을 둔 조작 영상물을 대상으로 한다는 점이다. 이 법이 가리키는 ‘기만적인(materially deceptive) 오디오·비주얼 미디어’의 조건은 다음 두 가지다. 첫째, 해당 정보가 허위임에도 합리적인 사람에게는 진실처럼 보여야 하며, 둘째, 합리적인 사람이 실제 정보를 듣거나 볼 경우와 비교할 때, 해당 정보가 합리적인 사람들에게 실제 정보와 근본적으로 다른 이해나 인상을 줘야 한다. 해당 법이 적용된 이후 ‘임프레션스 (Impressions)’나 ‘리페이스(Reface)’와 같은 딥페이크 제작 애플리케이션에서 일부 기능이 삭제되기도 했다. 그 때문인지 추가 개정을 거쳐 지금은 적용 기한이 2027년 1월 1일까지로 연장됐다.
유럽연합은 2022년 초대형 온라인 플랫폼과 검색 엔진에 딥페이크로 인한 피해가 발생하지 않게 하는 조치를 의무화하는 ‘디지털서비스법(Digital Service Act)’을 도입했다. 이 법에 따르면 월 활성 이용자가 4500만 명(EU 인구의 10퍼센트) 이상인 온라인 플랫폼과 검색 엔진은 실제 사람·사물·장소 등과 매우 흡사하거나 허위로 사람을 실물처럼 보이게 하는 조작된 이미지·오디오·비디오와 같은 정보에 대해서는 사용자들이 그것이 조작되었다는 것을 쉽게 알 수 있도록 분명한 식별 조치를 해야 한다. 만일 이 의무를 지키지 않았을 경우 전 세계 매출액의 6퍼센트 내에서 벌금형을 선고받을 수 있다.
[20]
중국은 2023년 1월부터 ‘인터넷 정보 서비스 딥 합성 관리 규정’을 통해 세계 주요국 중에서는 처음으로 딥페이크 기술에 대한 전면적 규제를 시도하고 있다. 경제 또는 국가 안보를 어지럽힐 수 있는 정보를 확산시키기 위한 목적으로, AI를 통해 만들어진 콘텐츠의 사용은 애초에 금지된다. 어떤 목적에서든 딥페이크를 이용해 만들어진 영상은 딥페이크 영상임을 명확하게 알려야 하고 원본을 추적할 수 있도록 워터마크도 넣어야 한다. 누군가의 얼굴이나 목소리를 합성하려면 당사자의 동의를 구해야 한다. 심지어 언론사에서 보도 목적으로 딥페이크 기술을 사용하려면 영상의 원본으로 정부가 승인한 매체만 활용할 수 있다. 사실상 딥페이크 기반의 정책 풍자나 비판을 막은 것이다.
[21]
이처럼 법 제도적 대응은 딥페이크를 적용한 결과물이 저지르는 범법 행위에 대해 현행 법률을 적용하거나, 딥페이크를 겨냥해 특화 법률의 제정을 시도하는 방향으로 이뤄지고 있다. 첫 번째 방식과 관련해 제기되는 문제는 저작권이나 퍼블리시티권, 명예훼손법과 같은 현행 법률이 딥페이크가 야기하는 사회 문제를 과연 얼마나 해결할 수 있는가에 대한 의문이다. 사실 이 물음은 딥페이크가 등장하기 이전부터 디지털 저작물과 관련하여 끊임없이 제기되어 왔던 문제다. 디지털 저작물에 대한 권리와 이의 공정 이용(fair use), 개인의 명예 보호와 창작 자율성 사이의 해묵은 긴장 관계를 딥페이크의 사례에서도 다시금 확인하게 되는 것이다. 특히 디지털 저작물에 의한 피해에 대응하는 것은 미국의 수정헌법 제1조(First Amendment)로 대표되는, 표현의 자유의 가치와 충돌할 수 있다. 악의적 딥페이크를 범죄화하는 것은 정치적 패러디까지 자동으로 삭제, 제한하는 행위로 이어져 새로운 논란을 야기할 수 있으며, 이 점에서 법적 대응을 위해서는 사례별 접근과 판단이 중요한 변수로 작동하게 된다.
더 큰 문제는 판결 결과가 무엇이든, 판결이 내려지기 전에 이미 딥페이크 영상은 대량으로 널리 유통됐을 것이라는 사실이다. 특히 퍼블리시티권 등이 유명인사에게 주로 유리하게 작동하고, 일반인의 경우 적용하기까지 적지 않은 노력이 소요된다는 점에서 현행 법률이 딥페이크에 대한 실제적 대응력을 갖추기는 어려워 보인다. 딥페이크를 활용한 리벤지 포르노물이 유포되는 경우에도 피해자는 그 사실 자체를 아예 모를 가능성이 높으며, 안다 해도 처벌을 기대하기가 어려운 게 현실이다.
그렇다면, 미국의 의원들이 제출한 법안들이 그 대안이 될 수 있을까? ‘악의적 딥페이크 금지법’이나 DSA의 사례에서 보듯, 이 법안들은 여러 측면에서 기존의 가치와 충돌하거나 새로운 문제를 가져올 가능성이 있다. 특히 플랫폼과 같은 딥페이크 영상 배포자에게 책임을 부과하는 방식은 미국의 통신품위법(Communications Decency Act) 제230조와 같은, 인터넷에서의 표현의 자유를 신장시켜 온 법률과 배치된다.
통신품위법 230조는 인터넷 서비스 사업자(ISP·Internet service provider)가 자신이 중개한 표현에 대해 발행인으로서 책임을 질 필요 없이 완전 면책되도록 규정한 법이다. 인터넷 서비스 사업자가 온라인상의 표현에 법적 책임을 부담하게 될까 두려워 표현을 삭제하는 일이 없도록 한 것이다. 물론 이러한 면책 조항이 피해자의 명예보다는 표현의 자유 보호만을 중시해 인터넷 사업자가 유해한 표현을 차단할 동기를 없애 버리는 부작용이 있었던 것은 사실이다. 하지만 딥페이크를 대상으로 한 새로운 플랫폼 규제 법안은 표현의 자유를 침해하고 인터넷 사업자에 과도한 책임을 부과하는 부작용을 낳을 수 있다. 딥페이크에 의한 위협에 대응하기 위한 시도가 도리어 온라인 생태계에 의도치 않은 피해를 줄 수도 있다는 점을 간과할 수는 없는 노릇이다.
이처럼 딥페이크에 대한 법적 대응은 이미 존재하는 법률과 중복되거나, 다른 법률적 가치와 충돌하는 문제와 관련되기 쉽다. 딥페이크의 피해자를 보호하는 것은 표현의 자유를 침해할 수 있고, 표현의 자유를 보장하기 위해 딥페이크 피해자 보호의 수위를 낮추면 딥페이크의 위해성이 가늠할 수 없는 수준으로 커져 버리는 것이다.
이러한 긴장을 조정하는 것은 법원의 역할이지만, 실질적인 법적 구제 수단이 있더라도 딥페이크가 초래하는 위험에 충분히 대응하기 위해 새로운 논의 또한 진행돼야 한다는 사실만큼은 분명하다. 새로운 법률이 만들어진다 해도 이것이 사후적인 대응일 수밖에 없다는 점은 해결할 수 없는 한계이기 때문이다. 법적 유효성이 높다 해도 법은 피해가 일어난 다음에야 작동한다. 법률 바깥의 대응이 필요한 이유다.
기술 자체보다 기술이 야기하는 문제들에 관심을
딥페이크가 초래하는 위험에 대응하기 위해 산업적, 기술적, 법적으로 다양한 노력이 이루어지고 있지만, 딥페이크가 지니는 잠재적 위협이 모두 제거된 것은 아니다. 어떤 방법도 딥페이크가 불러 오는 문제에 대한 완전하고도 유일한 해결책이 될 수 없기에, 딥페이크 기술과 영향력에 대해 지속적으로 관심을 가지고 이해도를 높이는 것이 근본적인 대응 방안이라는 목소리가 점차 커지고 있다.
이와 관련하여 MIT 미디어 연구소와 하버드대학교 버크만 센터 ‘AI 윤리와 거버넌스 이니셔티브 (the Ethics and Governance of AI Initiative)’의 팀 황(Tim Hwang)은 실제 발생하는 구체적이고 개별적인 딥페이크 문제에 관심을 가지고 이에 대한 해결책을 마련하는 데 집중하는 것이 딥페이크 탐지 알고리즘을 개발하는 것보다 더 중요하다고 강조한다.
[22] 자동화된 탐지 도구와 이의 산업적 적용, 가능한 문제들에 대한 법적 대응이 어디까지나 관련된 사람들의 폭넓은 이해와 관심 속에서 이뤄져야 한다는 뜻이다. 그는 기술과 인간 간 균형이 딥페이크에 대한 대응의 핵심이라고 봤다. 가령, 저널리스트나 리포터가 악의성 여부를 판단하기 어려운 애매한 경우나 딥페이크가 적용되는 특수한 맥락에 대한 사례를 제공해 줄 때 기술자와 연구자는 해당 기술의 원리와 활용을 보다 구체적으로 고민할 수 있을 것이다.
같은 맥락에서 전 사회적으로 딥페이크 기술과 딥페이크의 영향력에 대한 이해를 높이는 것이 딥페이크로 인한 부작용을 최소화하는 데 기여할 수 있다. 이와 관련해서는 노엘 마틴(Noelle Martin)이라는 한 여성의 사례에 주목해 볼 만하다. 마틴은 대학생이 된 후 소셜 미디어에 올린 자신의 이미지가 딥페이크 조작에 활용되어 포르노 DVD 표지로 만들어지고 포르노 사이트에 게시, 유통된 것을 알게 된다. 여기에는 심지어 마틴이 미성년자였을 때의 사진이 아동 포르노물과 합성된 경우도 있었다. 대다수의 피해자가 이러한 경우에 대해 쉬쉬하고 넘어간 것과 달리 노엘은 이에 공식적으로 대항하는 활동을 약 10년 간 지속해 오고 있다. 가해자의 신원을 모르는 상황에서 마틴은 가해자를 처벌하는 대신 법을 바꾸고자 결심했다. 마틴은 테드 강연(Ted Talk) 등을 통해 딥페이크로 인해 자신이 경험한 피해를 이야기하면서
[23] 법령 제정의 필요성에 대해 역설했고, 이러한 활동은 호주에서 적대적 포르노에 대한 법률이 제정되는 데 영향을 미치는 등 실질적인 효과를 가져왔다. 포기를 거부한 그녀의 태도와 행동은 딥페이크와 그로 인한 여성 대상의 폭력과 위협의 이슈를 환기하고 피해자의 지위를 법적으로 회복하는 데 기여했다고 평가받는다.
[24]
이처럼, 딥페이크가 초래하는 위협에 대응하기 위해서는 광범위한 문화적 변화가 필요하다. 특히, 피해자들의 침묵보다는 행동이, 사회적 무지보다는 관심이, 대중의 흥미보다는 인식의 향상이 중요하다. 딥페이크로 인해 영상이 조작될 수 있다는 사실, 조작된 영상 때문에 피해를 입은 사람이 어딘가에 존재할 수 있다는 사실, 이를 신고하면 삭제 등의 조치가 취해질 수 있다는 사실을 아는 사람이 많아질수록 딥페이크에 대한 사회적 대응책의 힘은 강해질 수 있다.
‘ASI 데이터 사이언스(ASI Data Science)’의 연구원 존 깁슨(John Gibson)은 2018년 열린 제15회 얄타 유럽 전략 회의(Yalta European Strategy)에서 영상과 음성 합성 기술의 가능성에 대한 사람들의 인식을 제고하는 것이 중요함을 역설한 바 있다. 그는 딥페이크를 ‘램프에서 빠져나온 지니’에 비유하면서, 영상 합성 기술이 앞으로 대중들에 의해 더 많이 이용될 것이고 이러한 발전을 정부가 통제할 수는 없을 것이라 전망했다. 깁슨은 정부의 통제 대신 허위정보의 영향을 완화하는 방향으로 해결책이 집중되는 것이 중요하며, 그중 하나는 사람들이 영상의 정치적 맥락을 인식하도록 돕는 것이라고 이야기했다.