컨텐츠 뷰 본문

인공지능 포르노: 왜 위험한가

인공지능 기술을 활용하여 기존의 포르노 영상 속 배우 얼굴에 다른 일반 배우의 얼굴을 합성하는 '페이크 포르노'(fake porn)가 나타났다
프로필 사진
BBC News | 코리아 작성일자2018.02.09. | 2,046,862 읽음
댓글

Nathalie Portman

출처 : BBC

흔히 AI라고 알려진 인공지능 기술을 활용하여 기존의 포르노 영상 속 배우 얼굴에 다른 일반 배우의 얼굴을 합성하는 페이크 포르노(fake porn)가 나타났다.

데이터로부터 패턴을 학습하여 새로운 데이터에 적용하는 기계 학습 기술을 적용한 이 포르노 영상은 스칼렛 요한슨, 테일러 스위프트, 엠마 왓슨 등의 합성 영상으로 인터넷에 퍼지기 시작했다.

이 인공지능 포르노는 미국의 한 인터넷 사이트인 레딧(Reddit)에 딥페이크(Deepfake)라는 유저가 처음 올려 딥페이크 포르노라고도 불린다.

Trump

출처 : BBC

심각한 위기

문제는 이 포르노에 적용된 기계 학습이 어렵지 않다는데 있다.

온라인에 무료 공개된 오픈 소스(Open Source) 코드와 약간의 기계 학습 알고리즘 지식만 있다면 누구든지 쉽게 만들 수 있다.

네티즌들은 이미 수십 개의 페이크 포르노를 제작했다.

이는 윤리적 문제이기도 하지만 더 나아가서는 우리의 인지력을 시험하는 문제이기도 하다.

실제로 하지 않았던 말을 듣고, 하지 않았던 행동을 했다고 믿게끔 하는 조작 영상은 포르노뿐만이 아닌 사회 전반에 혼란을 일으킬 수 있는 위험한 발명품이다.

지금 이미 인터넷에는 트럼프의 얼굴을 담은 조작 영상들이 떠돌고 있다.

Natalie Dormer

출처 : BBC

'뚜렷한 대책 없어'

언제나 그러하듯이, 기관들과 회사들은 준비가 되지 않았다.

몇몇 사이트들은 영상이 퍼지지 않도록 각별히 주의하고 있지만 대다수는 대응책 없이 긴장된 상태로 또 다른 혼란을 기다리고 있다.

이 기술을 연구하는 몇몇 커뮤니티는 유명인을 '섹스 테이프'에서 볼 수 있다는 기대감에 들떠있다.

모두가 예상하듯 이 문제는 여러 윤리적 그리고 철학적인 질문을 대동한다.

영상에 얼굴을 합성하는 행위는 부도덕한가, 진짜가 아니라는게 정말 중요한가, 누군가 실제로 다치는가 등의 반론도 제기된다.

그러나 그 중 가장 중요한 질문은 이것일 것이다.

"영상 속 주인공은 어떻게 느끼는가?"

Gal Gadot

출처 : BBC

너무 쉬운 조작

조작 영상을 만들기 위한 소프트웨어는 한달만에 무려 10만번의 다운로드 횟수를 기록했다.

예전에도 영상 속 얼굴을 다른 얼굴로 대체하는 기술은 있었지만, 현실성있게 만들기 위해서는 할리우드급 영상 편집 기술과 예산이 필요했다.

하지만 기계 학습과 관련 소프트웨어의 도래로 인해 이제는 세 가지 방법만 거친다면 누구나 현실적인 조작 영상을 만들 수 있게 됐다.

  1. 다양한 각도의 대상 사진을 모은다.
  2. 사진값을 대입할 포르노 영상을 고른다.
  3. 컴퓨터가 나머지를 해주길 기다린다.

Emma Watson

출처 : BBC

지금은 영상의 완성본을 보기 위해 40시간 넘게 기다려야하지만 이마저도 결코 긴 시간은 아니다.

또 지금은 비교적 사진이 많은 유명인들의 얼굴을 합성한 영상이 많이 만들어지고 있지만, 일반인의 얼굴을 이용한 조작 영상도 원칙상으로는 제작 가능하다.

특히나 SNS에 일반인의 사진이 넘쳐나는 지금 같은 시대에는 더욱 위험하다.

KPOP 아이돌 조작 영상

문제는 해외뿐만이 아니라 국내에서도 일어나고 있다.

최근 한 아이돌 가수의 얼굴이 합성된 영상이 등장한 후, 한국에서도 "deepfake" 검색량이 기하급수적으로 늘었다.

아이돌의 조작 영상 글의 한 댓글은 "이거 불법이어야 되는거 아니야?"라고 하는 방면 "대단하다!"라고 쓰인 댓글도 있었다.

고통 받는 '공인'들

검색창에 이름을 쳤을 때 다양한 각도의 얼굴이 나오는 사람이라면 모두 목표물이 될 수 있다. 꼭 연예인이 아니더라도 말이다.

엠마 왓슨과 나탈리 포트만 등은 조작 영상의 대표적 피해자들이다.

하지만 이들 외에도 미국의 전 영부인 미셸 오바마, 트럼프 대통령의 딸 이반카 트럼프 등의 얼굴이 조작 영상에 사용되고 있다.

한 기술 전문 언론사는 기술이 보편화되기까지는 1년이 걸릴 것이라고 내다봤다.

하지만 기술은 1달만에 보편화됐다.

대응

영상이 널리 퍼짐에따라 커뮤니티들은 대응을 시작했다.

이미지 호스팅 사이트인 기프캣(Gfycat)은 딥페이크와 관련된 모든 게시물을 삭제했다.

처음 딥페이크 포르노가 올라온 레딧 역시 빠른 시일 내에 조치를 취할 것으로 알려졌다.

구글은 아직 대응책을 내놓지는 않았지만, 과거 비슷한 사례에 관련 검색이 어렵도록 조치한 바 있다.

딥페이크 포르노는 '리벤지 포르노'라고 불리는 당사자의 동의 또는 인지 없이 배포되는 음란물에 또 다른 결을 더했다.

이로서 누군가는 또 다른 방법으로 다른 누군가를 망신 주고 상처 입힐 수 있게 됐다.

정치적 악용

포르노는 이제껏 영상 압축 기술, 가정용 비디오 테이프의 성공 등 여러 기술혁명의 숨은 주역이었다.

그러나 이제는 그 포르노가 기술을 넘어 정치에까지 손을 뻗치기 시작했다.

'더 아웃라인(The Outline)'의 존 크리스티안 기자는 최악의 상황을 가정하며 '평화에 적대적인 세력이 정부와 국민을 꾀거나 국재 분쟁을 일으키기 위해 사용될 수 있다'고 경고했다.

그리고 실제로 그 '최악의 상황'이 멀지 않은 듯 싶다. 가짜 뉴스는 이미 여러 세계 지도자와 국민들의 의견을 주무르고 있다.

이제는 오디오에 비디오가 합쳐져 마음 먹는다면 누군가를 속이기는 더욱 쉬워졌다.

레딧에서는 다음과 같은 의견들이 나오고 있다.

"우리가 하는 일은 건전하거나 명예롭지 않아요. 경멸스럽고, 저속하며, 여성들을 억압하는 행위입니다."

"무엇이든 진실이 될 수 있다면, 그 어떤 것도 진실일 수 없죠."

"리벤지 포르노도 이 기술때문에 나중에는 가짜라고 속여질 수 있어요."

사람들의 의견이 어떻든, 하나의 사실만은 자명하다.

기술은 이미 도래했고, 돌아갈 길은 없다.

놓치지 말아야 할 태그

#자취생으로살아남기

    많이 본 TOP3

      당신을 위한 1boon

        더보기