딥페이크(Deepfake)란 마치 진짜처럼 보이고 들리는 가짜 동영상 또는 오디오 녹음본이다. 한 때는 CIA나 GCHQ의 JTRIG 등 할리우드 특수 효과 스튜디오와 정보기관에게만 이를 만들어낼 역량이 있었지만 지금은 누구든 여가 시간에 딥페이크 소프트웨어를 다운로드하여 진짜처럼 보이는 가짜 동영상을 만들 수 있다.
현재까지 딥페이크를 만드는 이들은 유명인의 얼굴을 포르노 스타의 몸에 합성하거나 정치인들이 웃긴 이야기를 하도록 만드는 아마추어 취미가에 그쳤다. 하지만 잠재적 위험성이 커지는 중이다. 공격이 임박했다는 비상 경보 딥페이크를 만들거나 가짜 성관계 동영상으로 누군가의 결혼을 망치거나 투표가 시작되기 수일 전에 후보자 중 한 사람의 가짜 동영상 또는 오디오 녹화본을 유출시키는 등의 시나리오가 가능하다.
(편집자 주 : 본 기사는 2018년 11월 게재한 <팩트를 조작한다··· 딥페이크란? 잠재적 위험성은?>을 업데이트한 것이다.)
딥페이크는 얼마나 위험한가?
플로리다의 공화당 상원의원이자 2016년 대선 후보였던 마르코 루비오는 이를 현대의 핵무기와 비교했다. 그는 이렇게 말했다. “미국을 위협하려면 10대의 항공모함과 핵무기 그리고 장거리 미사일이 필요했다. 지금은 다르다. 인터넷, 뱅킹 시스템, 전기 그리드, 인프라에 액세스하면 되고 점차 우리의 선거를 망치고 국내에서 엄청난 위기를 조장하며 우리를 약화시키는 매우 현실적인 가짜 동영상을 제작하는 능력만 있으면 된다.”
정치적 과장법일까? 아니면 딥페이크가 정말로 핵무기보다 더 위협적일까? 루비오의 말을 들으면 우리는 아마겟돈으로 치닫고 있다. 하지만 모두가 이에 동의하지는 않는다.
BKC(Berkman-Klein Center)와 MIT 미디어 랩의 윤리 및 AI 계획 관리 이사 팀 황은 “핵폭탄만큼 위험하다고? 그렇지 않다고 생각한다. 몇몇 사례는 분명 충격적이지만, 딥페이크가 의도한 대로 사람들이 휩쓸리지는 않을 것이다”라고 말했다.
딥페이크의 원리
‘보는 것이 믿는 것’이라는 말도 있지만 사실 믿는 대로 보이기도 한다. 인간은 자신이 믿고 싶은 것을 뒷받침하는 정보를 찾고 나머지는 무시한다.
악당들은 이런 인간의 성향을 악용하고 있다. 의도적으로 거짓 정보(소위 말하는 ‘가짜 뉴스’)를 만든 후 진실이라는 이름으로 확산되는 상황이 이미 목격되고 있다. 사실을 확인한 사람들이 항의를 할 때 즈음에는 이미 늦은 후이고 #PizzaGate도 그 중 하나다.
딥페이크는 머신러닝 모델 2개를 활용하는 GAN(Generative Adversarial Network)를 이용한다. 1개의 ML 모델을 데이터 세트로 훈련한 후 가짜 동영상을 만들고 다른 하나는 가짜를 감지한다. 그리고 다른 ML이 가짜를 감지할 수 없을 때까지 가짜를 만드는 식이다. 훈련 데이터가 많을수록 신뢰할 만한 딥페이크를 만들기가 더 쉽다. 이 때문에 전 대통령들과 할리우드 유명인들의 동영상이 초기의 1세대 딥페이크에 자주 활용되고 있는 것이다. 훈련에 사용할 동영상이 넘쳐난다.
샬로우 페이크(Shallow Fake)도 문제
지난해 11월 기자 회견에서 트럼프 대통령과 CNN리포터 짐 아코스타와의 대립에 대한 조작된 동영상이 화제가 되면서 저급한 기술의 조작 동영상도 허위 정보의 한 형태로써 딥페이크만큼 효과적일 수 있음이 입증됐다. 원본 동영상에서는 한 여성 백악관 인턴이 아코스타의 마이크를 빼앗으려 시도하는 것으로 보인다. 그러나 편집 이후의 영상은 CNN 보고서가 인턴을 공격한 것처럼 보인다.
이 사건을 통해 동영상을 손쉽게 조작하여 공격자가 선택한 리포터, 정치인, 기업, 브랜드 등의 대상의 신임을 떨어뜨릴 수 있다는 우려가 부상했다.
FUD(Fear, Uncertainty, Doubt)는 보안 분야에 종사하는 사람들에게 친숙하며 이런 FUD를 대대적으로 하나의 무기로써 배치하면 개인뿐만이 아니라 기업에도 심각한 피해가 발생할 수 있다. FUD 공격에 대한 방어는 매우 어렵다. 아코스타가 여성 백악관 인턴을 거칠게 밀쳤다는 의심이 뿌리를 내리면 상당수의 시청자들은 그 세부사항을 잊지 못하고 사실일 수도 있다고 의심하게 됐다.
누가 누구를 흔들고 있는가?
데이비드 마멧의 심술궂도록 재미있는 1997년의 영화 왝더독은 재당선을 위해 특수 효과를 이용해 가짜로 전쟁을 벌여 섹스 스캔들을 덮으려는 한 대통령을 풍자했다. 당시에는 ‘가짜 TV 뉴스’를 만드는 능력이 희소한 것이었지만 지금은 노트북만 있으면 누구든 만들 수 있다.
물론 GAN은 가짜 성관계 동영상을 만들고 정치인이 다른 말을 하는 것처럼 보이도록 하는 것 외의 용도로도 사용할 수 있다. GAN은 ML모델이 스스로 학습하는 ‘비감독 학습’이라는 측면에서 큰 성과이다. 이를 통해 자율주행 자동차가 행인과 자전거를 인식하고 알렉사와 시리 같은 음성 활성화 디지털 비서와의 대화를 개선할 수 있는 능력이 크게 발전할 수 있다.
일반 사용자는 페이크앱을 다운로드하여 바로 자신만의 딥페이크를 만들 수 있다. 이 앱을 사용하는 방법이 아주 쉽지는 않지만 케빈 루즈가 시연했듯이 일정 수준의 지식이 있는 사용자라면 충분히 가능한 수준이다.
그렇긴 하지만 딥페이크를 지나치게 우려할 필요가 없다는 의견도 있다. 다른 여러 형태의 효과적인 조작 방법들이 존재하기 때문이다. MIT 미디어 랩의 윤리 및 AI 계획 관리 이사 팀 황은 “지금도 대중을 기만하고 의견을 형성함에 있어 쉽고 저렴한 방법이 있다고 생각한다”라고 말했다.
예를 들어, 거리에서 사람들이 누군가를 폭행하는 동영상을 촬영한 후 공격자들이 미국 이민자들이라는 등 동영상에 대한 가짜 설명을 작성하면 번거로운 ML 알고리즘도 필요 없다. 가짜 설명과 이에 적합한 동영상만 있으면 되는 것이다.
딥페이크를 감지하는 방법
딥페이크를 감지하기란 쉽지 않을 수 있다. 물론, 아마추어 딥페이크는 한 눈에 알아볼 수 있다. 기계가 찾아낼 수 있는 특징으로는 눈 깜빡임의 부재나 잘못된 그림자 등이 있다. 그러나 딥페이크를 생성하는 GAN은 개선되고 있기 때문에 머지않아 딥페이크를 감지하기 위해 디지털 포렌식에 의존해야 할 것이다.
이런 어려운 문제를 위해 DARPA는 연구원들이 진짜임이 입증된 동영상을 더욱 잘 찾을 수 있도록 투자를 하고 있다. 하지만 GAN은 자체적인 훈련을 통해 이런 포렌식을 회피하는 방법을 학습할 수 있기 때문에 이 싸움에서 이길 수 있을지 여부는 불확실하다.
DARPA 프로그램 관리자 데이비드 거닝은 “이론적으로, 이를 감지하기 위해 우리가 알고 있는 모든 기법을 GAN에 제공하는 경우 이런 기법을 모두 통과할 수 있다”라며, “한계가 있는지도 확실하지 않다”라고 MIT 테크놀로지 리뷰에 밝혔다.
가짜 동영상을 감지할 수 없다면 머지않아 우리가 보고 듣는 모든 것을 신뢰할 수 없게 될 것이라고 일부 전문가들은 경고하고 있다. 우리 눈에 보이는 것을 신뢰할 수 없게 되면 “진실의 종말”로 이어질 수 있다는 것이다. 이로 인해 정치적인 시스템에 대한 신뢰가 위협받을 뿐 아니라 더욱 장기적인 측면에서 공유된 객관적인 현실에 대한 신뢰가 손상될 수 있다. 무엇이 진실인지에 대해 합의할 수 없다면 어떻게 정책 문제를 논의할 수 있을지에 대한 우려가 있다.
하지만 황은 다소 과장된 부분이 있다고 생각한다. “내가 가장 크게 비판하는 부분이다. 우리가 진실을 판단할 수 없는 수준에는 도달하고 있지 않다고 생각한다”라고 말했다.
좀더 현실적인 위협 ‘딥페이크 음란물’
정치인들의 거짓말은 정치의 역사만큼이나 오래되었으며 민주주의에 대한 딥페이크의 위협은 과장되어 있다. 하지만 좀 더 현실적인 위협이 존재한다. 유명인이나 전 여자친구의 머리를 포르노 스타의 머리에 합성하는 딥페이크 포르노 생성이다.
이것은 촬영 없이 이뤄지는 리벤지 포르노와 같다. 딥페이크 포르노 제작자에게는 소셜 미디어 피드에서 손쉽게 구할 수 있는 피해자의 사진과 피해자의 얼굴이 나오는 수 분 길이의 동영상만 있으면 된다. 심지어 어느 정도의 대중적인 혐오에 익숙한 유명인들도 선정적인 동영상 속에서 자신의 머리와 포르노 스타의 신체가 합성된 것을 발견하고는 경악을 금치 못했다.
딥페이크의 목적이 대중을 조종하기보다는 약자를 괴롭히거나 학대하는 것일 때가 있다. 딥페이크가 민주주의에 대한 위협보다는 주변인들에 대한 위협으로 활용될 가능성이 오히려 높은 셈이다.
딥페이크를 방지하기 위해서는 어떻게 규제해야 할까?
딥페이크는 합법일까? 이 곤란한 문제는 아직까지 해결되지 않고 있다. 미 수정 헌법 제1조를 고려해야 하지만 지적 재산법, 개인정보보호법, 미국의 여러 주에서 뒤늦게 발효한 새로운 리벤지 포르노 법령도 고려해야 한다.
지파이캣(Gfycat)이나 폰허브(Pornhub) 등의 플랫폼이 자체 웹사이트에서 딥페이크 포르노 동영상을 능동적으로 삭제하고 이런 콘텐츠는 자체 서비스 규정을 위반하는 것이라고 주장하곤 하지만 포르노 딥페이크는 비주류 플랫폼에서 지속적으로 공유된다.
하지만 성적으로 모욕적인 것은 아니라는 정치적 발언의 경우 구분이 모호해진다. 수정 제1조는 정치인이 사람들에게 거짓말을 할 수 있는 권리를 보호한다. 실수 또는 고의로 잘못된 정보를 공개할 권리가 보호된다. 규제자와 입법자는 이 문제로 계속 씨름하고 있다.
(1920년 대부터) 딥페이크 사례
정치적 딥페이크인 가짜 뉴스 동영상이 새롭다고 생각하는가? 다시 생각해 보자. 영화가 발명된 후 한 세대 동안 실제 뉴스를 강조하기 위한 가짜 뉴스 동영상은 당연한 것으로 여겨졌다.
영화가 대양을 건너는데 수 주가 소요되던 시대에도 영화 제작자들은 실제와 똑같은 뉴스를 만들기 위해 지진이나 화재 등을 극화했다. 1920년 대, 대양 횡단 케이블을 통해 흑백 사진을 전송하는 것이 유행이었으며, 영화 제작자들은 실제 사진을 이용해 파괴 장면을 제작했다. 이러한 관행은 1930년대부터야 사라지기 시작했다. dl-ciokorea@foundryco.com