딥페이크는 딥러닝(deep-learning) 알고리즘을 이용해 원본 이미지나 동영상 위에 원본과는 관련이 없는 이미지를 중첩하거나 결합하는 이미지 합성·조작 기술이다. 이 기술을 활용하면 기계가 인식할 수 있는 객체는 무엇이든 다른 이미지로 교체하거나, 합성할 수 있지만, 딥페이크는 주로 원본 동영상 속 얼굴을 자연스럽게 다른 사람의 얼굴로 바꾸는 데 활용된다. 영상 속 객체를 합성·조작하는 기술이 전에 없었던 것은 아니다. 컴퓨터 그래픽이 활용된 영화 화면이나 포토샵(photoshop) 처리된 사진은 대표적인 이미지 합성·조작의 사례다. 그러나 이들이 전문가의 손 기술이나 일상의 재미로 자리 잡은 것과 달리 딥페이크는 ‘deep’과 ‘fake’가 합쳐진 이름처럼, 감쪽같은(deep-laid) 거짓(fake) 이미지나 영상을 만드는 것으로 유독 악명이 높다. 소프트웨어정책연구소가 소셜 빅데이터 자료를 분석한 결과에 따르면, 딥페이크에 대한 부정적 인식이 긍정적 인식보다 세 배 이상 높게 나타날 정도다.
[1]
그 이유는 기술 등장 초기, 딥페이크가 주로 음란 영상물에 사용됐기 때문이다. 2017년 말 ‘deepfakes’라는 닉네임을 쓰는 이용자가 미국의 커뮤니티 사이트인 ‘레딧(Reddit)’에 올린 포르노 영상물들이 악명의 기폭제가 됐다. 평소에도 외설적이거나 혐오스러운 이미지와 동영상이 심심치 않게 게시되던 레딧이었지만, ‘deepfakes’가 올린 영상은 사람들의 엄청난 관심을 끌었다. 그 이유는 음란 영상물 속 주인공이 누구나 알 만한 스타들이었기 때문이다. 영상이 워낙 자연스러워 많은 이들은 해당 영상이 사고로 유출된 것은 아닌지 의심했지만 ‘deepfakes’는 이 영상들이 딥러닝 알고리즘을 활용해 포르노 배우의 얼굴을 슈퍼스타의 얼굴로 바꾼 것이라 설명했다. 이때부터 딥페이크는 딥러닝 알고리즘을 활용하여 얼굴이나 신체 부위를 조작, 합성하는 기술을 대표하는 이름이 되었다.
2018년 4월 17일, 언론사 ‘버즈피드(BuzzFeed)’가 유튜브에 동영상 하나를 게재하면서 딥페이크의 악명은 더욱 높아졌다.
[2] 영상에서는 버락 오바마(Barack Obama) 미국 전 대통령이 “트럼프 대통령은 완전 머저리”라며 막말을 하고, 극우 인종주의자를 찬양하는 등 믿을 수 없는 말들을 내뱉고 있었다. ‘이 연설이 진짜인가?’라는 의심이 들 때쯤 화면이 둘로 갈라지며 진실이 밝혀진다. 해당 영상은 딥페이크 기술을 활용해 영화감독인 조던 필(Jordan Peele)이 오바마를 성대모사하는 영상에 오바마의 얼굴을 합성한 것이었다. 만약 영상 속 메시지가 오바마 대통령이 정말로 이야기할 법한 내용이었다면? 전쟁 선포와 같이 중요한 정치적 결정을 포함하고 있었다면? 대통령의 연설임을 믿을 수밖에 없을 만큼 자연스러운 오바마의 얼굴을 보며, 사람들은 딥페이크가 초래할 수 있는 정보적 혼란을 새삼 실감할 수밖에 없었다.