소식 딥페이크 기술의 득과 실
딥페이크 기술의 득과 실
딥페이크의 기반은 2014년에 등장한 머신러닝 기술인 ‘적대관계생성신경망(Generative Adversarial Networks, 이하 GAN)’으로 GAN은 AI 모델을 생성모델1과 분류모델2로 구분하고 있습니다.
각 모델의 학습을 반복하는 과정을 거치면서 생성모델과 분류모델은 서로를 적대적 경쟁자로 인식하며 상호 발전하게 됩니다.
이러한 과정을 통해 원본 영상과의 구별이 거의 불가능할 정도로 정교한 합성 영상이 만들어지는 것입니다.
[딥페이크 생성 모델]
딥페이크는 다양한 분야에서 효과적인 활용방안이 될 수 있는 기술로 조명받고 있습니다.
그중에서도 마케팅 및 광고, 의료, 영화 분야에서 유용한 기술로 활용되고 있는데요.
먼저
연예인이나 유명 모델과 직접 협력하지 않고도 이미지와 목소리를 사용할 수 있어 홍보 비용 절감에 크게 기여할 수 있습니다.
기술적으로 촬영이나 계약 없이도 다양한 변형 광고를 손쉽게 제작할 수 있기 때문에, 효율적인 마케팅 전략을 실행할 수 있습니다.
실제로 ‘말라리아 노 모어’라는 캠페인에서는 유명한 축구스타 데이비드 베컴이 출연해 9개 언어로 말라리라에 대한 위험성을 담은 메시지를 전달하기도 했습니다.
[딥페이크를 활용한 광고 캠페인]
다음으로
이 외에도
이를 활용한 사례는 <살인자ㅇ난감>이라는 작품에서 손석구의 어린 시절 모습을 딥페이크 기술로 구현하여 리얼리티를 극대화하는데 활용하였습니다.
[딥페이크로 구현된 손석구의 어린시절(오른쪽)]
하지만 이런 대단한 신기술, 딥페이크에 대해 우리는 얼마나 신뢰하고, 확신할 수 있을까요?
딥페이크 기술의 핵심은 단어에서도 말하고 있듯이 페이크(fake), 진위 여부를 구별하기 어려운 가짜 영상 혹은 이미지를 만들어 낼 수 있다는 것입니다.
실제로 페이크뉴스, 페이크영상을 제작하는데 딥페이크 기술이 사용되고 있으며, 이는 개인에서 사회적인 문제로 확산되고 있다는 것입니다.
최근 대한민국에서 동급생의 사진을 도용해 불법영상물을 제작하고 공유하는 등의 범죄가 일어나 큰 충격을 주고 있습니다.
“동급생 '딥페이크' 불법 합성물 제작·소지 남양주 중학생 4명 수사 중”
“대학생 단체 "딥페이크 사태, 대학 내 피해자도 조명해야"(종합)”
이러한 불법영상물은 전 세계적으로 나타나고 있으며, 딥페이크 전체 영상 중에서도 성인물이 전체의 96%를 점유하며 가장 큰 비중을 차지하고 있을 정도로 심각한 기술의 오용이 발생하고 있습니다.
특히 페이크 영상 속 대상이 주로 연예계 인물이라는 것이 큰 충격을 주고 있습니다.
해당 영상의 대부분이 대상자의 허락을 받지 않고 불법 도용된 이미지로 파악되었으며,
여성, 그리고 유명인에 대한 피해가 가장 큰 실정입니다. 영국의 한 배우를 합성한 성인용 딥페이크 영상물이 257개가 유포되고,
조회 수가 580만 회를 넘긴 사례도 확인되고 있을 정도이니 이런 불법 영상물에 대한 제작 방지 방안을 마련하는 일이 시급하다고 볼 수 있는 부분입니다.
[딥페이크로 만들어진 불법영상물의 대상 특성]
또한, 가짜 뉴스도 심각한 딥페이크 악용 사례로 손꼽히고 있습니다.
유명인사의 얼굴을 합성한 딥페이크 뉴스가 난무함에 따라 정치적·사회적 불안감이 가중되고 있다는 것입니다.
실제로 마크 저크버그는 Facebook 이용자 데이터를 통제할 힘이 본인에게 있다는 과시적 내용의 발언으로 시청자의 뭇매를 맞은적이 있는데요.
개인정보 유출로 당시 큰 곤란에 빠져 있던 상황이라 해당 발언에 대해 거센 비판이 쏟아졌습니다.
하지만 해당 영상은 실제가 아닌 조작된 영상이었으며, 영국의 한 디지털 예술가가 AI 프로젝트의 일환으로 제작·게재한 영상이었던 것으로 드러났던 하나의 해프닝이었습니다.
[딥페이크로 제작된 마크저크버그의 발언영상]
마지막 사례는 해당 영상에 오바마(미국 전 대통령)가 등장하여 트럼프(현 대통령)를 향해 거침없는 비판하는 모습이 담긴 이 영상은
조작된 딥페이크 영상이었던 것으로 확인되었습니다.
만약 이러한 영상이 무분별하게 공유되고 확산되었다면, 정치적으로 엄청난 파급력을 지니게 되었을 것입니다.
[딥페이크로 제작된 오바마 전 미국대통령의 조작 영상]
이처럼 딥페이크 기술의 확산으로 진짜와 가짜를 구분하기가 상당히 어려워지는 과정에서 범죄가 성행하고 있습니다.
신기술에 대한 오용이 불러온 부작용이며, 이제는 전 세계가 마주친 IT범죄라는 것에 그저 아쉬운 마음뿐입니다.
위에서 언급했던 딥페이크가 확산되면서 각종 부작용을 양산하고 있지만, 딥페이크 기술이 암(暗)만 가지고 있는 기술은 분명 아니라는 것입니다.
딥페이크 기술이 영상 산업에 활용되면서 특수효과, 더빙, 과거 재현 등이 더 쉽고 간편해졌다는 것은 분명 사실입니다.
어느 기술이 그렇듯, 딥페이크 기술도 쓰이는 방향과 목적에 따라 명과 암을 가지기 마련입니다.
사실을 조작하고, 무고한 사람을 공격하는 강력한 도구가 될 수 있음은 분명하며 이를 방지하고 대책을 마련할 수 있는 논의가 필요함은 물론이거니와,
이를 유용하게 활용할 수 있는 방향 또한 놓쳐서는 안 된다고 생각합니다.
딥페이크 기술이 우리 사회의 신뢰를 떨어트리는 끔찍한 허점이 되지 않도록 경각심을 가지되, 무궁무진한 발전 가능성도 함께 고려해야 할 것입니다.
[ 참고 및 출처 ]
https://www.kca.kr/
https://www.samsungsds.com/kr/insights/what-is-a-deepfake.html
https://spri.kr/posts/view/23469?code=data_all&study_type=industry_trend
[글/사진] 김신태 과장 / kimsintae0401@gmail.com