본문 바로가기
IT & 스마트/스마트 달팽이(스마트 life)

[인공지능 AI] 딥페이크(DeepFake)란? 딥페이크 이슈와 문제점

by 스마트달팽이 2021. 2. 5.
반응형

푸~하! (푸르미~하이!)

인공지능 기술이 끝없이 발전하면서

딥페이크(Deepfake)에 대한 기술에 대한

이슈도 문제도 많이 발생하는 것 같습니다.

 

이와 관련하여 딥페이크란 무엇인지,

어떤 기능이 있으며,

어떤 문제점들이 있는지 살펴보고자 합니다.

딥페이크(Deepfake)란?

인공지능(AI) 기술 중 하나인 딥러닝(Deep Learning)과

Fake(가짜)를 조합한 합성어로,

합성 영상물을 처음 유통시킨 사람의 아이디에서 유래하였습니다.

 

이 기술은

AI기술과 안면 매핑 또는 안면 스와핑 기술을 이용하여

특정(A) 인물의 얼굴 또는 신체 부위를 다른(B) 영상에 

영화의 CG처럼 합성한 영상편집물을 일컫습니다.

요즘은 허위의 동영상 콘텐츠를 만드는 기술이나

만든 결과물을 딥페이크라 부르고 있습니다.

 

(출처: Few-Shot Adversarial Learning of Realistic Neural Talking Head Models 논문)

딥러닝이 적용된 딥페이크(DeepFake)

위와 같이 합성하고자하는 인물의 얼굴이 나오는 동영상을

딥러닝하여 대상이 되는 동영상에 프레임단위로 합성을 하는 것입니다.

 

합성 이미지 또는 합성 영상을 만들어내는 이전에도 존재했었지만

디지털 기술이 발전하고 인공지능(AI)기술이 결합 되면서

비약적인 발전하여 정교한 결과를 이루어낸 것입니다.

(딥페이크 기술을 적용한 사례)


이 신기하고도 놀라운

딥페이크(DeepFake)기술은

이제 우리 곁에서 다양한 영역에서

실현되고 있습니다.

 

M.net에서 AI 음악프로젝트 '다시 한번'

AI로 다시 재현한 거북이의 고(故)터틀맨님

과 함께 멤버들이 무대에 섰었습니다.

(출처: M net '다시 한 번' 장면 중 일부)  

거북이와 고(故)터틀맨님의 음악을 좋아하는 1인으로서 

이 장면을 보면서 참 놀라우면서 감동적인 무대였습니다.

무대를 함께 지켜보시던 가족분들의 모습도 마음에 남습니다.

 

그리고 MBN에서는 AI앵커가 등장했는데요.

바로 실제 김주하 아나운서가 아닌

AI 김주하 아나운서의 뉴스 진행이었습니다.

 

(출처 : MBN 'MBN AI 앵커 뉴스' 의 화면 일부)

뉴스 진행 특성상을 감안하면 문장을 읽는 것이

정말 김주하 아나운서로 착각할 수 있을 만큼의 실현이었습니다.

주로 이 김주하 AI 앵커는 정오 주요뉴스를 맡아 진행하고 있는데요.

우리의 디지털 기술이 얼마나 진보되고 있는지,

딥페이크 기술이 얼마나 놀라운지를 새삼 느낄 수 있었습니다.

 

아래 영상을 참고하시면

실제 김주하 앵커와 AI 김주하 앵커가 만나

차이가 어떻게 다른지를 조금 느낄 수 있습니다.

 

(출처 : MBN 인간앵커와 AI앵커의 첫 대면 )

가짜 이미지를 만들어내는 기술은 예전부터 존재했지만,

이것이 인공지능 기술과 결합하면서 비약적으로 발전하게 되었습니다.

영상을 업로드하면 조작된 결과물을 바로 내려 받을 수 있는 웹사이트까

지 등장하면서 이제는 기술을 가지고 있지 않은 일반 사람들도

가짜 영상을 생산하여 확산시킬 수 있는 상황에 처했습니다.

 

하지만 이렇게 딥페이크(AI)기술이 일반인들에게도

쉽고 간단하게 적용될 수 있으면서 여러 문제들이

발생하게 되었는데요.


문제점 1

딥페이크의 가장 큰 문제는

무엇이 진짜인지 가짜인지

구별하기 어려워졌다는 사실입니다.

딥페이크로 만든 영상을 허위로 실제처럼

제작하고 유포하는 일들이 발생한 것입니다.

이러한 조작영상은 사회 전반에 걸쳐 큰 혼란을

불러올 수 있기 때문에 대응과 조치가 필요해보입니다.

(출처 : AI 딥페이크로 실현된 오바마 가짜 영상, 버즈피드 제작)

우선 이 영상은 가짜로 만들어진 콘텐츠입니다.

오바마 미국 전 대통령이 트럼프 대통령을 비난하는 영상인데요.

이 영상은 미국 온라인 매체 '버즈피드'가 딥페이크의 위험성을 경고하기 

위해 만든 '가짜 속 가짜'였습니다.

처음 이 영상이 공개되었을 때는

전임 대통령과 현 대통령의 사이가 좋지 않은 상황에서

미국 사회와 정치판이 엄청 난리였었다고 합니다.


문제점 2

신종 디지털 성범죄가 증가하면서

딥페이크 영상물로 인한 피해가 늘어나고 있습니다. 

딥페이크 기술로 연예인이나 일반인 얼굴을 성인 영상물에

합성하여 딥페이크 영상을 만들어 유포, 배포하는 사례가 생겼습니다.

(출처 : pixabay)

갤 가돗, 엠마 왓슨, 스칼렛 요한슨 등 해외 유명 배우들도

딥페이크 음란물 때문에 큰 곤욕을 치뤘었습니다.

뿐만 아니라 우리나라 연예인들도 이런 딥페이크

이미지나 영상들로 큰 곤욕을 치뤘었습니다.

심지어 이런 유명 스타도 아닌 일반인들도

지인 능욕이라는 이름으로 범죄의 대상이 되기도 하였습니다.

이러한 인권 침해 및 성범죄

노출로 이어지는 문제들 또한 

딥페이크기술에서 해결,보완해야될 큰 부분입니다.


문제점 3

딥페이크의 기술로 인하여 

안면인식이나 생체인식 시스템 보안에도 큰 위협이 되었습니다.

(출처 : 연합뉴스 기사 제목)

주로 금융권에서 사용되는 화상통화, 목소리, 얼굴 등을 활용한 바이오 인증

을 금융거래에 접목하여 사용자 편의를 개선하고 있었는데요.

이러한 사람마다 가진 특수성(목소리, 지문, 얼굴, 홍채 등)으로

보안을 강화하는데 사용하였다면, 그걸 복제하는 기술인

딥페이크 기술은 이런 보안에 큰 위협적인 존재로 

다가올 수 밖에 없습니다. 


세상에 어떤 좋은 기술이 나와도

이 기술을 좋게 사용하면 선(이로움)이요,

이 기술을 나쁘게 사용하면 악(나쁨)이니,

예를 들어 문을 따는 기술이 있다하면,

정말 열쇠를 잃어버렸을 때 열쇠전문가가 열어주면 좋은 것이지만

이를 나쁘게 이용하면 불법침입 & 도둑이 되는 것이겠지요.

 

 

악용될 것이 두려워 기술 개발을 막을 수 없는 것처럼

딥페이크 기술도 유용하게 사용될 수 있는 방법을 더 연구하고,

디지털 범죄에 대한 처벌 강화와 허위 정보에 대한 규제, 생체 인식 보안 강화 등

범죄 이용 등 우려를 줄일 수 있도록 제도와 사회적 합의가 필요합니다.

 

 

 

반응형

댓글