검색 바로가기 본문 바로가기 메뉴 바로가기


[카드뉴스] '내가 본 게 진짜가 아니다?'…가짜 동영상 딥페이크 경계령

송고시간2018/09/03 06:30

기사 본문 인쇄 및 글자 확대/축소

<<시각장애인 음성정보 지원을 위한 텍스트입니다>>

지난 4월, 한 무서운 동영상이 온라인과 각국 언론을 휩쓸었습니다. 이 영상에는 버락 오바마 전(前) 미국 대통령이 트럼프 대통령을 욕하는 모습이 담겨 있었습니다. 이 영상이 '무섭다'고 알려진 것은 욕설 때문이 아니었습니다. 표정과 목소리 등이 생생한 오바마 대통령의 모습이, 사실은 인공지능(AI)기술 등을 이용해 만들어낸 '가짜'였기 때문입니다.

딥페이크(deepfake)

AI나 얼굴매핑(facial mapping) 기술을 활용해 특정 영상에 합성한 편집물. 특정인의 표정이나 목소리 등을 그대로 흉내를 내, 하지도 않은 말을 얼굴을 드러내놓고 말한 것처럼 보이게 합니다. 딥페이크는 최근 각국에서 '경계대상'으로 떠올랐습니다. 과거 영화 패러디 등 재미로 쓰이던 합성 영상과 달리, AI 등 최신 기술은 진짜 사람과 구분이 안 될 정도로 정교한 가짜를 만들어내기 때문입니다.

지난해부터 유명 가수 등의 얼굴을 이용한 '딥페이크 포르노'가 퍼지기 시작했고, 이것이 디지털 성범죄라는 인식이 생기면서 소셜네트워크 텀블러는 최근 딥페이크 포르노 금지 방침을 발표했습니다.

'얼굴과 목의 맥박이 일치하지 않음'

'비정상적인 눈 깜빡임'

미국 카네기멜런 대학교 등 다수 연구진이 딥페이크 구별법을 찾아내고 있지만, 점점 발달하는 기술 탓에 일반인들이 딥페이크를 구별해내기는 쉽지 않습니다. (출처: CNN)

현실을 왜곡하여 대중의 판단을 흐릴 수 있는 딥페이크. 오바마 전(前) 대통령 영상처럼 딥페이크가 정치나 군사 영역에 악용되면 큰 혼란을 불러올 수 있다는 우려가 커지고 있습니다.

(서울=연합뉴스) 전승엽 기자·김지원 작가·장미화 이한나 인턴기자(디자인)

kirin@yna.co.kr

<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>2018/09/03 06:30 송고

댓글쓰기