> 뉴스 > 이슈
     
정치와 포르노, 완벽한 거짓말을 꿈꾸다
[Trend] ‘가짜뉴스’ 경계령
[101호] 2018년 09월 01일 (토) 필리프 베트게 economyinsight@hani.co.kr
기술 발달로 음향과 영상은 점점 더 정교하고 그럴듯하게 조작된다. 촬영이나 녹음 없이 유명인 음성과 영상을 만들 수도 있다. 사람들은 영상화한 가짜뉴스 ‘딥페이크’(deepfake)가 민주주의를 파괴할 수 있다고 우려한다.
 
필리프 베트게 Philip Bethge <슈피겔> 기자
 
   
▲ 2018년 4월 미국 온라인매체 <버즈피드>와 영화 <겟아웃>의 조던 필 감독이 이끄는 몽키포프로덕션이 공동 작업한 ‘딥페이크’(deepfake) 영상. 가짜 버락 오바마가 나와 도널드 트럼프 미국 대통령을 조롱한다. 화면 갈무리
“트럼프 대통령은 완전히 멍청이(dipshit)다.” 
 
미국 일인자를 경멸하는 그는, 자기 마음을 전혀 숨기지 않는다. 이 말을 내뱉은 이는 자신의 사무실에 앉아 있다. 오른쪽 뒤엔 성조기가 걸렸다. 한 나라의 국가수반 인터뷰처럼 카메라를 응시하는 그는 버락 오바마와 똑같이 생겼다. 목소리도 오바마다. 말투조차 흡사하다. 이 남자는 의심할 여지 없이 오바마다. 
 
정말 오바마가 이 말을 했을까? 그는 한 적이 없다. 최소한 공개적으로 말이다. 비디오 영상에서 실제 말한 사람은 오바마 흉내를 잘 내는 미국 배우 조던 필이다. ‘페이크앱’(FakeApp)이라는 소프트웨어가 필의 입 부분과 진짜 오바마의 영상을 짜깁기했다. 이 짧은 영상을 만드는 데 56시간이 걸렸다. 오바마에게 빌려온 입술은 소름 끼칠 정도로 진짜같이 필의 호소를 세계에 전했다.
 
“우리는 위험한 시대에 살고 있습니다. 우리의 적은 실제 말하지 않으면서도, 언제라도 자신들이 원하는 대로 말할 수 있는 시대가 시작됐습니다.” 
 
진짜 같은 가짜 오바마
인터넷 미디어 <버즈피드>(Buzz Feed)에서 2018년 4월 공개한 이 영상은, 2세대 가짜뉴스의 가장 확실한 사례다. 페이스북과 트위터 같은 소셜네트워크의 알고리즘이 프로파간다(선전)와 잘못된 정보를 확대재생산한다는 사실이 밝혀진 직후, 전문가들은 완벽한 ‘디지털 사기’를 경고한다. 진짜 같지만 조작된 음향과 영상이다. 
 
앞으로 불어닥칠 불안한 상황을 우려하는 이들도 있다. 이들은 조작된 비디오로 만들어진 가짜뉴스가 정치적 갈등, 심지어 전쟁을 일으킬 것이라고 본다. 더 이상 자신의 눈과 귀를 믿을 수 없는 세상이 된 것이다. 이 미래에는 놀라운 정확성으로 현실을 조작하는 소프트웨어를 누구나 쉽게 활용할 수 있을 것이다. 모든 이용자에게 맞춤형 ‘에코 체임버’(echo chamber·자신의 의견과 유사한 정보만을 믿고 나눔으로써 자신의 믿음을 강화하려는 것)를 제공하는 트위터 봇과 페이스북 트롤은 조작의 시작일 뿐이다. ‘거짓말 공장’이 완성되기 직전이다. 
 
구글의 인공지능 전문가 이안 굿펠로가 2017년 11월 미국 매사추세츠공과대학(MIT) 학회에서 시대의 전환을 환기하기 위해 이렇게 말하기도 했다. “지금까지 우리가 비디오 영상을 사실 증거로써 신뢰할 수 있었던 것은 역사적 행운이었다.” 
 
미국 미시간대학 소셜미디어책임센터 과학기술자인 아비브 오베디아는 반문한다. “실제 일인지 상관없이 모든 사람이 모든 사건을 그럴듯하게 시뮬레이션할 수 있다면 어떤 일이 벌어질까?” 한 세계 지도자가 핵공격을 명령하는 시나리오부터 배우자의 목소리를 흉내 내 전화로 은행 비밀번호를 묻는 속임수까지, 음향과 영상 조작은 점점 더 쉬워지고 있다. 오베이다는 우리에게 익숙한 미디어와 통신 구조가 사라지는 ‘정보 아포칼립스’(Infokalypse)가 닥칠 것이라고 경고한다. “거짓 정보를 세상에 퍼뜨리려는 동기와 그 수단은 오래전부터 있었다. 속임수의 최종 단계인 ‘현실 왜곡’이 임박했다.” 
 
인터넷이 진실과 거짓을 이용하는 비즈니스를 어떻게 변화시키는지는 2016년 전세계가 처음 깨달았다. 그럼에도 러시아의 미국 대선 개입 시도 의혹은 아직까지 명확히 밝혀지지 않았다. 하지만 러시아 상트페테르부르크에 있는 인터넷 트롤 공장 IRA(Internet Research Agency)는 트위터에서만 3814개 계정을 운영했다. 이들이 작성한 프로파간다 트윗이 최소 140만 명의 미국 시민에게 이르렀다. 하지만 트럼프 대통령은 ‘가짜뉴스’라는 전투적 개념을 빌미로 계속 의문을 제기하고 있다.
 
트럼프 대통령은 미국을 현실 조작 기술을 위한 이상적 온상으로 만들었다. 그와 맞물려 실리콘밸리 소프트웨어 회사들에서는 ‘증강현실’이 트렌드가 되었다. 스냅챗 같은 애플리케이셥(앱)의 사진 필터처럼, 새롭고 활기찬 현실은 대부분 아직 아무런 해악을 끼치지 않고 있다. 이런 기술의 논리적 발전 방향은 결국 완전히 새롭게 생산된 환상, 현실의 조작이다.  
 
   
▲ 2년 전 트럼프 대통령은 자신의 음담패설 녹음파일을 인정하고 공개적으로 사과했다. 하지만 지금 그는 그 녹음파일이 ‘가짜’라고 주장하며 부정한다. REUTERS
갈 가도트의 가짜 섹스 동영상
2017년 가을 인터넷 포털 레딧에 한 포르노 비디오가 게재됐다. 이스라엘 출신 여배우 갈 가도트의 섹스 영상이었다. 하지만 가도트는 섹스 동영상에 출연하지 않았다. ‘딥페이크’ (deepfakes)라는 아이디(ID)의 레딧 이용자가 가도트의 얼굴을 포르노 비디오에 이식한 것이다. 이 프로그래머는 구글에서 인공지능 연구를 위해 개발해 배포한 기계학습 엔진 ‘테너플로’(TenorFlow)를 이용했다. 
 
그로부터 겨우 6개월 후, 누구나 시간과 노력을 좀 들이면 동영상 속 얼굴을 바꿀 수 있게 됐다. 앤젤리나 졸리, 내털리 포트먼, 테일러 스위프트, 이들 모두 포르노 배우의 몸에 얼굴이 합성된 채 원치 않는 하드코어 포르노에 출연하고 있다. 이를 취미로 즐기는 프로그래머들은 얼굴 교체 기술을 할리우드 블록버스터 영화의 한 장면에 자기 자신, 친구 또는 파트너를 합성하는 데 쓴다. 디지털과 신기술에 정통한 밀레니얼 세대의 궁극적인 생일 선물이다.
 
인터넷에 널린 페이크앱 같은 소프트웨어가 이를 가능케 한다. 인터넷에서 ‘딥페이크’(Deepfakes)라고 불리는 영상을 쉽게 제작할 수 있게 해준다. <버즈피드>도 이 앱으로 가짜 오바마를 만들었다. 페이크앱은 사람이 개입하지 않아도 지속적으로 결과를 최적화하는 자체 학습 알고리즘을 쓴다. 소프트웨어에 두 사람의 사진을 제공하면 자체적으로 두 얼굴의 모델을 만든다. 이어 한 사람의 얼굴을 다른 사람의 몸에 합성한다.
 
결과물은 놀라울 정도로 실제 같다. 인공지능 개발자들은 비디오를 설득력 있게 조작하는 기술이 앞으로 더욱 쉬워질 것으로 전망한다. 독일 뮌헨공과대학 컴퓨터공학과 교수 마티아스 니이스너(32)는 이렇게 말했다. “영상은 물론 사진도 사람이 편집할 수 있는 비트일 뿐임을 알아야 한다. 조작에 필요한 노력은 앞으로 더욱 적어질 것이다.”
 
인공지능 전문가인 니이스너가 일반 회사에서 일하면 현재 연봉의 몇 배를 받을 것이다. 그럼에도 공공 연구에 헌신해 자신의 연구를 더 많이 알리는 것이 중요하다고 여기는 그는 “영화업계에선 영상 조작이 오래전부터 있었다”고 설명했다. 제임스 캐머런 감독의 <아바타>만 봐도 놀라울 정도로 현실적인 화면을 만들어낸다. 하지만 그에 드는 비용과 노력이 매우 컸다.  
 
니이스너는 “이 과정을 더 쉽게 할 수 있는 방법을 연구한다”고 했다. 그는 동료들과 함께 영상 속에서 얼굴뿐만 아니라 상체 전체까지 자기 마음대로 조작할 수 있는 놀라운 기술을 고안했다. 그가 연구실에서 작동 방식을 시연했다. 먼저 컴퓨터에 러시아 대통령 블라디미르 푸틴이 새해 연설을 하는 영상을 불러왔다. 동시에 니이스너가 자신을 간단한 웹캠으로 촬영했다. 
 
두 영상을 토대로 ‘페이스투페이스’ (Face2Face) 소프트웨어가 마법과도 같은 일을 해낸다. 니이스너가 웃으면 푸틴도 웃고, 니이스너가 눈썹을 치켜올리면 푸틴도 눈썹을 치켜올린다. 러시아 대통령이 독일 컴퓨터 전문가의 꼭두각시로 전락했다. 이 속임수가 가능한 것은, 니이스너의 화면에 나타난 푸틴이 더 이상 원래 유튜브 영상 속 푸틴이 아니기 때문이다. 원래 푸틴의 얼굴 위에, 러시아 대통령의 완벽한 3차원(3D) 이미지인 푸틴 마스크를 씌웠다. 니이스너는 이 얼굴 마스크를 자신의 표정으로 원격조종할 수 있었던 것이다.
 
니이스너의 푸틴은 아직 말을 못한다. 하지만 푸틴 입에서 그럴듯한 말이 흘러나오게 하는 것은 어렵지 않다. 언어를 조작하고 만드는 프로그램도 이미 오래전에 개발했다. 2016년 어도비(Adobe)는 음성 분석 소프트웨어 ‘보코’(VoCo)를 선보였다. 프로그램이 어떤 목소리의 특징을 완전히 포착하는 데 20분짜리 언어 자료만 있으면 충분하다. 텍스트 입력칸을 활용하면 이용자가 원하는 대로 말하게 할 수 있다. 
 
구글도 언어 시스템 개발에 참여하고 있다. 얼마 전 구글은 새로운 음성 어시스턴트를 발표했다. 듀플렉스는 놀라울 정도로 사람 같은 목소리로 통화하며, 레스토랑과 미용실을 예약할 수 있다. 심지어 진짜 사람처럼 얘기 중간에 “으음” 같은 말도 끼워넣는다. 구글 개발자들은 이 프로그램을 소개할 때 이런 방식의 통화를 두 차례 시연했다. 보코 소프트웨어는 통화 중간에 단 한 번도 상대방에게 자신이 소프트웨어라고 알리지 않았다. 프로그램은 열광적 반응을 일으켰지만, 동시에 불쾌감도 유발했다. “인간인 척하며 속이는 소프트웨어를 개발한 것은 끔찍한 일”이라고 미국 노스캐롤라이나대학 사회학자 제이넵 투펙치는 지적했다. 그는 “실리콘밸리가 윤리적으로 타락했다”고 분개했다.
 
소프트웨어 개발자가 어느 정도까지 사람들을 속이는 것이 허용되냐를 두고 논란이 제기된다. 실제 보이는 것이 더 이상 진짜가 아니면 도대체 무엇을 믿어야 하나. 
 
지금까지 대부분의 사람은 편집되지 않았거나 생방송으로 전송되는 음향·영상이 모두 실제라고 생각했다. 스캔들의 경우, 음성녹음이나 동영상이 있을 때 더 파장이 컸다. 지금은 가짜 비디오 영상과 조작된 음성녹음이 하나씩 나올 때마다 대중은 의심하게 된다. 그 의심은 정치적 야망을 달성하려 대중의 인기에만 영합하려는 포퓰리스트들의 자산으로 악용될 수 있다. 
 
   
▲ 인공지능을 활용해 영상과 음향 등으로 현실을 조작하는 ‘가짜뉴스’(딥페이크)의 범람은 사회를 불안정하게 할 뿐 아니라 민주주의의 기초인 ‘사실의 신뢰성’도 무너뜨린다. REUTERS
점점 더 완벽해지는 ‘딥페이크’
2016년 10월까지만 해도 도널드 트럼프는 그의 “Grab them by the pussy”(여자 성기를 움켜쥐어라) 음성녹음이 진짜임을 인정할 수밖에 없었고, 공개적으로 그의 외설적 발언을 사과해야만 했다. 하지만 2년여가 흐른 지금, 그는 “그것이 내 음성이라고 믿지 않는다”고 부인한다.
 
미국 플로리다주 파크랜드 학교에서 일어난 총기사고 생존자인 에마 곤살레스의 사례도 있다. 삭발한 이 여학생은 미국 총기법 항의의 상징이 되었다. 지금 이 18살 여성이 미국 헌법을 찢는 짧은 영상이 소셜네트워크에 떠돈다. 가짜다. 원본에서 그녀는 표적을 찢는다. 익명의 누리꾼이 곤살레스의 신뢰를 떨어뜨리기 위해 영상을 조작했다.  
 
오베디아는 가짜 비디오 영상이 앞으로 더 자주 이런 방식으로 악용될 것이라고 본다. 그는 인공지능으로 수행되는 정치 캠페인의 악영향을 우려한다. 가짜 영상이 실제 사람들이 행하는 ‘풀뿌리민주주의 운동’과 구별되지 않기 때문이다. 오베디아는 외교도 조작이 가능하다고 믿는다. 예를 들어, 관심 있는 사람들 사이에서 “그런 일이 실재하지 않았음에도, 어떤 사건이 일어났다는 믿음을 만들어낸다”는 것이다. 
 
앙겔라 메르켈 독일 총리가 레제프 타이이프 에르도안 터키 대통령을 향해 조롱하는 듯한 발언을 담은 영상만으로도 최악의 외교적 참사를 일으킬 수 있다. 북한 김정은 국무위원장이 미국에 핵미사일을 발사한다고 발표하는 가짜 비디오가 등장한다면 어떻게 될까. 참모진이 이 영상의 진위 여부를 확실히 가려낼 때까지, 트럼프 대통령이 역습하지 않고 기다릴 수 있을까.
 
가짜뉴스는 점점 더 완벽해지고 있다. 사회는 어떻게 변모할 것인가. 오베디아는 두 가지 시나리오를 제시했다. 모두 민주주의를 위협하는 내용이다. 첫 번째 시나리오는 “사람들이 뉴스 보는 것을 포기한다”는 것이다. 그는 이를 ‘현실 마비’라고 했다. 가짜뉴스가 넘쳐나면 사회는 뉴스와 사실을 근본적으로 의심하기 시작한다. 두 번째는 “점점 더 자신의 신념과 일치하는 것만을 사실로 인식한다”는 것이다. 이는 더 공포스럽다. 모든 사람이 자신이 믿고 싶은 것만 믿으면 사회는 여러 모순된 현실에 부닥치게 된다.  
 
미국 사회는 현실처럼 영상을 만드는 기술이 어떻게 사회를 분열하게 만드는지 여실히 보여준다. 사람들은 처음 자신이 본 영상에 의문을 품더라도 시간이 흐를수록 그 기억이 사실이라고 확신한다. 영상일 경우 더욱 그렇다. 
 
오베디아는 “사람들에게 전혀 진실이 아닌 것을 진실로 팔아먹는 것은 매우 쉽다”고 했다. 그는 현실을 조작하는 인공지능 도구를 누구나 사용할 수 있게 될 것이라고 경고한다. “사회를 매우 불안정하게 만들 수 있다. 현실에 대한 믿음을 붕괴시킬 수 있다. 더 나아가 인공지능과 가상현실에서 탄생한 가짜뉴스가 민주주의의 기초인 ‘사실의 신뢰성’을 깨뜨릴 가능성도 농후하다.”  
 
모든 연구자가 오베디아만큼 비관적인 것은 아니다. 니이스너는 “불필요한 공포를 조성하는 사람이 많다”고 지적한다. “사람들을 속이는 일은 쉽다. 내가 가르치는 학생들은 조작된 비디오 영상을 대부분 실제 영상과 구분하지 못했다. 하지만 조작된 영상이나 사진을 식별하는 일이 컴퓨터한테는 매우 쉽다.” 그는 디지털포렌식 기술로 가짜뉴스와 싸울 각오가 돼 있다. 비디오·오디오 형식에 새로운 표준도 만들 것이다.  
 
그는 얼마 전 동료들과 함께 프로그램을 개발했다. 페이스포렌식을 활용해 매우 높은 확률로 영상이 진짜인지 가짜인지를 밝혀낸다. 또 공익 인공지능(AI)재단과 협력해 가짜 비디오를 자동으로 가려내는 브라우저 플러그인을 개발하고 있다. 이 플러그인을 사용하면 누구든 파이어폭스나 크롬 브라우저에서 조작과 진실을 구분할 수 있다.
 
니이스너는 디지털 미디어에 위조 방지 워터마크를 붙이는 방법을 대안으로 권고했다. “이미 비디오를 인증하는 방법이 있다. 온라인 매체도 앞으로 기사를 디지털 방식으로 인증해야 할 것이다.” 그렇게 된다면 인터넷의 신뢰성 위기가 또 다른 기회가 될 수 있다. “사람들에게 기술적으로 가능한 것을 보여주는 것이 중요하다. 그다음에야 사용자가 적절한 의심을 품고 인터넷 서핑을 하게 될 것이다.”
 
현 상황에서 세계의 거짓말에 대한 두려움을 증폭하는 일이 옳을 수도 있다. 2018년 6월7~8일 가짜뉴스 전문가들이 다시 한번 세상에 경종을 울리려 미국 뉴욕에서 만났다. NYC미디어랩이 ‘페이크뉴스 호러쇼’에 전문가들을 초청했다. 초청장에는 “끔찍한 선전도구 과학박람회. 일부는 진짜, 다른 일부는 가짜지만 모두 그럴듯한 기술에 기반하고 있다”고 쓰였다. 학회 모토가 ‘신뢰가 흔들려야 새롭게 신뢰를 구축할 수 있다’일까. 아니면 <버즈피드> 비디오 영상 마지막 부분에서 가짜 오바마가 말한 것과 같이 “Stay woke, bitches.”(조심해라, ××들아)일지 모른다. 

*2018년 9월호 종이잡지 25쪽에 실렸습니다.
 
ⓒ Der Sspiegel 2018년 23호 
Die perfekte Lüge
번역 황수경 위원
정기구독자는 과거 기사 전체와 2016년 6월 이후 온라인 기사 전체를,
온라인 회원은 과거 기사 일부와 2016년 6월 이후 온라인 기사 전체를 보실 수 있습니다.

  

필리프 베트게의 다른기사 보기  
ⓒ Economy Insight(http://www.economyinsight.co.kr) 무단전재 및 재배포금지 | 저작권문의  

     
전체 기사의견(0)  
 
   * 300자까지 쓰실 수 있습니다. (현재 0 byte/최대 600byte)
   * 욕설이나 인신공격성 글은 삭제합니다. [운영원칙]
매체소개 구독신청 구독문의기사문의개인정보취급방침청소년보호정책 이메일무단수집거부찾아오시는 길
한겨레신문(주) | 제호 : 이코노미 인사이트 | 등록번호 : 서울 아 01706 | 등록일자 : 2011년 07월 19일 | 발행인 : 양상우 | 편집인 : 권태호
발행주소 : 서울특별시 마포구 효창목길 6 (공덕동, 한겨레신문사) | 한겨레 고객센터 1566-9595 | 청소년보호 책임자 : 장철규
Copyright 2010 Hankyoreh. All rights reserved.