다행인 것은 2018년이나 2022년 미국 대선, 러시아-우크라이나 전쟁 같은 대형 정치적, 군사적 사건이 진행되는 과정에서 딥페이크로 인한 심각한 수준의 허위정보 문제는 발생하지 않았다는 사실이다. 오히려 대통령의 얼굴을 합성한 영상은 딥페이크가 어떻게 정치적으로 활용될 수 있는지를 보여줌으로써 해당 기술에 대한 사회적 인식을 높이는 데 기여할 수 있었다. 이와 같은 효과가 앞으로도 지속될 것인가? 허위정보의 문제가 심화하는 상황에서 물음의 답을 쉽사리 내릴 수는 없을 것이다. 하지만 분명한 사실은 사회적 인식과 문화적 변화가 딥페이크를 멈추거나 사라지게 할 수는 없더라도 딥페이크의 부정적 영향력을 둔화시키는 데에는 반드시 도움이 되리라는 것이다.
무엇을 해야 하나?
지금까지 딥페이크로 인해 발생하는 문제점과 그에 대한 대응, 그리고 대응의 한계점들을 살펴봤다. 이러한 한계들을 극복하고 딥페이크가 사회적으로 수용되고 창작의 도구로 더욱 널리 활용될 수 있도록 우리가 해야 할 일은 무엇일까?
나로부터 시작하기
무엇보다 중요한 것은 온라인 이용자 개개인이 딥페이크 기술을 악용하지 않고, 딥페이크가 악의적으로 만들어 낸 영상에 휘둘리지 않는 자세를 기르는 것이다. 딥페이크의 파급력은 전문적인 지식이나 기술이 없어도 매우 쉽고 광범위하게 다수에 의해 현실을 조작할 수 있다는 것에서 나온다. 악의적 포르노나 명예훼손 등 딥페이크와 관련한 문제들은 생성적 적대 신경망이 얼마나 이미지를 잘 학습하고, 필요한 부분을 대체, 합성하는지가 아니라 어떤 이미지를 학습하여 어떤 이미지와 합성한 후 어떤 영상을 만들어 낼 것인가를 결정하는 인간의 판단과 의지에서 발생한다. 딥페이크로 인한 폭력과 사실의 위기는 딥페이크 기술 자체보다는 딥페이크 기술의 ‘이용’으로부터 초래되는 셈이다. 따라서 딥페이크 기술의 악용 가능성에 대해 인지하고, 이를 사회적으로 올바른 방향으로만 사용하려는 이용자 개개인의 노력이 가장 중요한 과제로 꼽힌다.
온라인에서 딥페이크 영상을 접하고 소비하는 사람들의 경험과 지식을 함양하는 것 또한 중요하다. 혁신적인 탐지 기술이 딥페이크 영상을 실시간으로 식별하더라도 사람들이 이를 믿고 마음을 바꾸지 않는다면 아무런 소용이 없을 것이다. 조작된 영상과 영상이 조작됐다고 이야기하는 탐지 알고리즘 중 무엇을 더 신뢰할 것인지, 또는 서로 다른 탐지 알고리즘이 영상의 진위 여부에 대해 상충하는 평결을 내릴 때 무엇을 믿어야 하는지의 문제는 딥페이크라는 기술과 별도로 발생하는 또 다른 선택의 문제다. 이 선택에 따라 사실(fact)이 다시 위기에 처할 수도 있다. 오바마 대통령이 인종 차별적인 사람이라 믿는 이들은 그가 영상에서 눈을 깜빡이든 그렇지 않든 인종 차별적인 연설을 내뱉는 장면을 사실로 받아들일 것이다. 인간의 마음과 인식, 동의와 믿음은 AI 알고리즘이나 딥페이크 기술보다 더 ‘디버깅’하기 어려운 대상이기에, 이 시스템이 어떻게 사실을 강화하는 방향으로 학습할 수 있을 것인지에 대한 고민이 다른 어떤 대응들 못지않게 필요하다.
딥페이크, 나아가 모든 유형의 허위정보에 대한 이용자의 이해와 정확한 판단 능력, 즉 리터러시(literacy)를 제고하는 노력은 이 문제의 가장 현실성 있는 대안이라 할 수 있다. 대학 등 학술 기관이 진행하는 미디어 리터러시 프로그램을 하나의 사례로 살펴볼 수 있다. 가령, 뉴욕의 티시예술대학교(NYU Tisch)는 ‘뉴스 위조하기(Faking the News)’라는 과목에서 학생들에게 AI 기술을 활용해 콘텐츠를 위조하는 방법을 가르침으로써 딥페이크의 위험성을 알린 바 있다. 학생들은 직접 위조 콘텐츠를 만들며 기술의 잠재성과 함의, 그리고 해당 기술의 한계 또한 배울 수 있었다.
션 등의 연구 [25]에 따르면 온라인상의 가짜 이미지에 대한 신뢰도 평가에는 출처의 유무보다 이용자의 인터넷 능력과 이미지 편집 경험, 미디어 이용 정도가 더 큰 영향을 미친다. 이용자의 미디어 리터러시가 높을 때 가짜 이미지를 판별하고 신뢰도를 조정할 가능성이 더 높다는 말이다. 딥페이크 기술 자체에 대한 지식을 전달하는 것을 넘어, 허위정보 전반에 대처하는 총체적이고 종합적인 역량으로서의 미디어 리터러시를 높이는 것이 중요하다. 탄탄해진 미디어 리터러시를 기반으로, 현실에 대한 평가와 가치 판단을 내리도록 하는 교육 과정이 무엇보다 중요할 것이다. 특히 Z세대의 경우 대부분의 활동을 온라인에서 진행하고, 동영상을 이용하는 경우가 많기 때문에 리터러시 교육을 통해 딥페이크로 인한 허위정보의 문제에 대응하려는 노력이 필요하다. 가령, 버즈피드 는 딥페이크 영상을 식별하는 다섯 가지 팁[26]을 정리하고 있는데,[27] 이러한 사실을 젊은 세대가 유념하는 것만으로도 딥페이크로 인한 위험을 줄일 수 있을 것이다.
블랙박스화를 넘어서
인터넷 플랫폼, 또는 서비스 사업자의 경우 딥페이크 탐지 기술을 개발하고 이를 플랫폼에 기본적으로 탑재하는 등의 역할이 사회적으로 요구될 가능성이 크다. 기존의 대응이 이용자의 신고와 요청을 받아들이는 소극적 수준에 머물렀다면, 앞으로는 정보의 유통과 확산에 대한 책무를 적극적으로 요구받는 것이다. 딥페이크를 탐지할 수 있는 자체 AI 모델을 플랫폼에 구축하거나 영상 콘텐츠를 출처나 업로드 일시, 진위 탐지 결과 등의 부가 정보와 함께 게시하는 정책을 적용하는 것 등이 향후 인터넷 사업자들이 취할 수 있는 방안으로 논의된다.
이때 중요한 것은 딥페이크에 대한 플랫폼의 대응 자체가 플랫폼의 핵심 내부자만 그 내용을 알 수 있는, 이른바 ‘블랙박스화‘될 가능성을 유념하는 것이다. 딥페이크 탐지 기술 또한 이용자, 엔지니어가 쉽게 이해하고 접근할 수 있는 형태로 제공돼야 한다. 딥페이크 탐지 기술의 블랙박스를, 전부는 아니더라도 가능한 수준에서 공개하는 것이 플랫폼에 적용할 수 있는 모델을 개발하는 것만큼 중요하다는 사실을 잊어서는 안 된다. 딥페이크 탐지 기술 개발의 이면에서 이뤄지는 의사 결정 과정을 투명하게 공개하는 것도 필요하다. 영상의 원본성에 대한 ‘인증’이 의미하는 바가 명확할 때에만 비로소 그 인증을 기반으로 한 신뢰가 구축될 수 있기 때문이다.
이 점에서 ‘리얼리티 디펜더(Reality Defender)’의 사례는 주목할 만하다. 리얼리티 디펜더는 미국의 ‘AI 재단(AI Foundation)’이 딥페이크로 인한 미국 대선 관련 정보 오염을 막기 위해 2020년에 출범한 딥페이크 탐지 기술 플랫폼이다. 독일의 뮌헨공과대학교의 페이스 포렌식 프로젝트를 기반으로 시작해 현재 수백 개 이상의 학교, 기업, 기관 등이 참여하는 대형 프로젝트로 성장했다. 기존에 알려진 딥페이크 탐지 모델 중 정확도가 높았던 모델들을 통합해 더욱 확장성 있는 탐지 모델을 제작하고, 이를 웹 앱 등으로 쉽게 활용할 수 있도록 한다. 미국 국토안보부, 미국 국방부, 육군, CIA등의 정부 기관, ABC, 《워싱턴포스트》, 《와이어드》, 프로퍼블리카 등의 언론, 링크드인, 페이스북과 같은 소셜 미디어 기업과도 제휴해 이들 조직이 데이터 진위를 판단할 수 있도록 지원하는 중이다. 리얼리티 디펜더는 여러 기관이 연합으로 정보를 공개, 공유하며 딥페이크 탐지 기술을 개발하고 기술의 적용 대상을 확대하려는 노력이라는 점에서 높이 평가할 만하다. 딥페이크 기술이 날로 발전하는 상황에서 단일 기업이나 기관이 단독으로 ‘만능’ 탐지 기술을 개발하는 것은 사실상 불가능하다. 리얼리티 디펜더처럼 딥페이크 탐지 기술을 적극적으로 공유, 개발하려는 시도가 앞으로 더욱 확대돼야 할 것이다.
믿을만한 중개인, 언론
딥페이크는 허위정보의 생성과 확산을 가속화한다. 사실의 지표로 간주되던 영상의 원본성이 의심받기 시작했다는 것은 대중이 온라인에서 만나는 미디어와 콘텐츠를 더 이상 신뢰할 수 없는 상황에 처했음을 뜻한다. 사실과 진실이 쉽게 오염될 수 있는 상황에서, 사회가 어떻게 정보를 수용하고 공유하도록 할 것인지의 과제가 떠오를 수밖에 없다.
컴퓨터공학 연구자이자 미디어 연구자인 니콜라스 디아코플로스(Nicholas Diakopoulos)는 《콜럼비아 저널리즘 리뷰(Columbia Journalism Review)》 에 실린 칼럼을 통해 바로 이 지점에서 오히려 주류 언론이 권위를 회복하고 사회에 기여하는 기회를 가질 수 있을 것이라 말한다.[28] 대중이 온라인 콘텐츠를 더 이상 신뢰할 수 없다는 것을 알게 되면 믿을만한 평가자 및 중개인을 필요로 하게 되는데, 이 역할을 언론이 수행할 수 있다는 것이다. 그는 이러한 기회를 포착하기 위해 언론과 언론인이 미디어 포렌식 교육과 기술 도구 개발, 프로세스 표준화 및 투명성과 같은 전략을 추구할 필요가 있다고 강조한다.
언론사는 포렌식 도구를 개발・통합하고, 영상의 진위 여부를 결정할 때 필요한 맥락 단서를 제공할 수 있다. 이미지 합성이 쉬워질수록 시간, 장소, 환경 등에 대한 메타 데이터가 적절한 검증을 위해 더욱 중요해지는데, 이러한 맥락을 해석하는 역할을 언론이 수행하는 것이다. 언론사 역시 플랫폼과 마찬가지로 콘텐츠의 평가 과정을 문서화하는 등 합성 영상의 검증을 위한 과정을 표준화하고 공개해야 한다. 사실과 진실이 오염되는 시대에 언론이 사실을 해석하고 이 과정을 공개한다면, 그 위상은 새로이 정립될 수 있다. 믿을 만한 콘텐츠의 유통 경로로서의 언론으로 재탄생하는 것이다.
규제가 능사는 아니다
다수의 전문가들은 온라인 이용자와 플랫폼, 언론에게 부과된 새로운 과제가 정부 주도로 진행되는 것을 경계한다. 딥페이크에 대한 법적 대응이 데이터 기반 비즈니스의 핵심인 데이터 공유와 혁신을 거부하는 방향, 특히 콘텐츠에 대한 직접 제재 방식으로 이루어지는 것을 피해야 한다는 이유 때문이다.
대신 정부는 이용자와 언론, 기관의 정보 리터러시를 높이는 교육을 실시하고, 공공-민간의 파트너십이나 핵심 관계자들 간의 협력을 증진하는 등, 사회적 신뢰를 높이는 방향으로 기능할 수 있을 것이다. 미국의 방위 고등 연구 계획국 ‘DARPA’의 미디어 포렌식 프로그램은 정부의 직접 개입 없이 연구를 지원하는 것만으로도 딥페이크 탐지 기술 발전에 기여할 수 있음을 보여 줬다. EU에서도 유사하게 인비드 프로젝트가 진행된 바 있다. 프랑스 통신사 AFP를 비롯하여 일곱 개국 소속 아홉 개 기관, 및 기업이 참여하고 있는 이 프로젝트는 EU가 2016년 1월부터 진행 중인 혁신 프로그램 ‘호라이즌 2020(Horizon 2020)’의 기금 지원을 기반으로 한다. 호라이즌 2020의 기금 규모는 약 800억 유로에 달한다. 인비드 프로젝트를 통해 페이스북이나 유튜브와 같은 소셜 미디어에서 유통되는 동영상의 진위 여부를 자동으로 파악하는 도구가 개발됐다. 또한 영상의 과거 사용 전력을 확인하고 영상에 삽입된 로고를 감지함으로써 영상의 이용자가 저작권자를 확인할 수 있게 해 주는 방안 역시 제시됐다. 이러한 성과는 정부 주도의 국가 간 협력 사업이 허위정보로 인해 발생하는 사회적 비용을 줄일 수 있음을 보여 준다.
아울러 정부는 딥페이크로 인한 허위정보에 어떻게 대처할 것인지, 사회적 신뢰를 어떻게 높일 것인지에 대한 중장기 로드맵을 구축할 필요가 있다. 일시적으로 발생하는 단발적 사건에 단기적 처방으로 대응하거나, 강한 법적인 규제 일변도로 나아가는 것은 표현의 자유를 침해하거나 새로운 플랫폼에서의 미디어의 활동 영역을 축소하는 등 부작용을 낳을 수 있다. 단계적으로 딥페이크로 인한 허위정보 생성 실태를 파악하고 이에 대한 이해 관련자의 의견을 종합적으로 수렴, 사회적 차원에서의 대응 방안을 마련할 수 있는 체계가 마련돼야 한다. 딥페이크와 관련된 허위정보 대응 체계에 정부의 전 부처가 참여하는 것, 딥페이크를 통한 허위정보 생성 및 유통과 관련된 연구 계획을 수립하고 꾸준히 실행하는 것도 정부가 해야 하는 중요한 역할이다.
폭력의 방지에서 창작의 증진으로
딥페이크에 대한 사회적 대응은 딥페이크로 인한 부정적 효과 및 부작용을 최소화하는 데 집중돼 있다. 그 방법 또한 사후적인 경우가 많다. 사전에 딥페이크의 악의적 활용을 예방하거나, 딥페이크를 이용한 창작을 활성화하는 방안을 마련하는 데까지는 아직 사회적 논의가 나아가지 못하는 실정이다.
새로운 기술과 서비스가 등장하면 사람들은 이에 대해 조금은 과도한 기대를 가진다. 가령, 트위터나 페이스북이 등장했을 때 사람들은 드디어 글로벌 차원에서 평등한 쌍방향 커뮤니케이션 채널이 마련됐다는 기대에 부풀었고, 앱스토어가 처음 마련됐을 때는 많은 사람들이 누구나 큰 자본 없이 디지털 콘텐츠 생태계의 제작자가 될 수 있다고 생각했다. 그러나 딥페이크의 경우, 대다수의 사람들이 기술의 가치보다는 부작용을 먼저 생각한다. 기술의 발전의 역사에서 이례적인 일이다. 딥페이크 기술이 존재감을 드러낸 첫 계기가 허위정보나 포르노그래피와 같은 부정적 사례였기 때문일 것이다. 기술을 제대로 바라보기 위해 우리는 딥페이크라는 기술이 만들어 내는 새로운 가치, 긍정적 사례에도 관심을 기울일 필요가 있다. 기술 개발자와 영상 이용자, 플랫폼, 언론, 정부 모두가 이 과정에 참여해야 할 것이다.
이러한 사례가 쌓일 때 우리는 비로소 딥페이크가 인간 존재에 대해 새롭게 던지는 질문들을 보다 심도 있게 논할 수 있다. 딥페이크는 영상에 ‘드러난 얼굴’ 뿐 아니라 이로 인해 ‘감춰진 얼굴’, 그리고 새롭게 주체로서 활동하려는 ‘가상의 얼굴’과 관련된 다양한 질문을 우리 사회에 던지고 있다. 산업적, 법적, 제도적 대응을 넘어, 보다 근본적인 문제들에 철학적, 윤리적, 도덕적으로 어떻게 대응할 것인가는 여전히 과제로 남아 있다. 딥페이크 기술 자체를 넘어 ‘딥페이크의 얼굴’을 사회적으로 수용하기 위해, 앞으로 우리는 더 많은 질문을 던져야 한다.