"딥페이크 해보니 너무 쉽다"...무료 앱·온라인 사이트 수두룩
딥페이크(인공지능(AI) 기반 이미지 합성) 기술의 발전과 확산이 빠르게 진행되면서 이에 따른 사회문제가 커지고 있다. 무료로 제공되는 딥페이크 앱과 온라인 사이트가 우후죽순 등장하면서 AI 코딩, 프로그래밍 관련 지식이 전혀 없는 남녀노소 누구나 이를 활용해 영상과 사진 등을 간단히 제작할 수 있어 피해를 방지하기 위한 제도적 장치가 조속히 마련돼야 한다는 지적이 나오고 있다. 실제 얼마나 쉽고, 빠르게 제작할 수 있는지 기자가 직접 구글 플레이스토어에서 1000만 회 이상 설치된 합성 앱을 활용해 사진과 영상을 제작해 봤다. 제작 방법은 간단했다. 앱에서 제공하는 영상 중 하나를 선택하고, 기자의 얼굴 사진 한 장을 등록했다. 그리고 제작 시작 버튼을 누르자 15초 만에 영상이 제작됐다. 앱 다운로드 후 회원가입, 영상 제작까지 채 5분도 걸리지 않았다. 만들어진 영상은 다운로드가 가능했고, 여러 메신저 앱으로 공유할 수 있었다. 영상을 받아본 지인들의 반응은 다양했지만, "영상이 실제처럼 제작된 것 같냐"는 질문에는 전부 동의했다. 이번에는 구글 등 검색엔진에 딥페이크 영상 제작 관련 검색어를 입력했다. 성인 인증이 돼 있지 않았지만, 음란물을 제작할 수 있다는 홍보 문구로 접속을 유도하는 사이트가 여럿 검색됐다. 한 사이트에 들어가보니 ‘이 웹사이트를 사용하려면 18세 이상이어야 합니다’, ‘생성한 이미지에 대한 책임은 전적으로 사용자에게 있습니다’ 등의 규칙에 수락해야 한다는 창이 떴다. 수락을 누르고 회원가입을 했다. 그러자 곧바로 무료 딥페이크 음란물 사진 제작이 가능했다. 실제로 기자의 사진을 사이트에 업로드하고 15초를 기다리자 원본 이미지의 틀에서 크게 벗어나지 않은, 그럴듯한 알몸 사진이 제작됐다. 잠깐 실험해본 딥페이크 기술은 너무나 쉽게 사용 가능했고, 꽤 정교했다. 기술을 활용해 사진과 영상을 만드는 것이 더 이상 단순한 놀이라는 생각이 들지 않았고, 두려운 생각까지 들었다. 딥페이크는 영화, 교육 등 여러 산업 분야에서 창의적인 활용이 가능하지만, 최근 연예인·지인 등의 얼굴을 합성한 성착취물 제작에 사용되면서 범죄 악용 위험성이 화두로 떠오르고 있다. 특히, 딥페이크 범죄에 속수무책으로 노출되고 있는 연령대는 다른 연령대보다 IT기기를 많이 사용하는 청소년들이다. 국회 행정안전위원회 소속 더불어민주당 양부남 의원이 경찰청에서 제출받은 자료에 따르면 2021∼2023년 경찰에 신고된 허위영상물(딥페이크 범죄를 통해 편집된 불법합성물) 사건의 피해자 총 527명 중 59.8%(315명)가 10대였다. 이는 20대(32.1%), 30대(5.3%), 40대(1.1%) 등 다른 연령대보다 월등히 큰 비중이다. 허위영상물 피해 미성년자는 2021년 53명에서 2022년 81명, 지난해 181명으로 2년 만에 3.4배가 됐다. 이와 관련 전문가들은 "처벌 규정을 강화해 수요를 차단하는 등 기술 부작용을 최소화할 수 있는 규제가 필요하다"고 강조하며, 기술 발전에 따른 교육 시스템이 동반돼야 한다고 제언했다. 김명주 서울여자대학교 정보보호학과 교수는 “새로운 기술의 등장으로 사회가 발전하고 변할 때 정신적인, 윤리적인 역량이 따라가지 못하면 이러한 현상이 벌어지게 된다”며 “범죄인 것을 모르고 장난으로 딥페이크를 사용하는 사람이 없도록, 기술이 긍정적인 방향으로 사용될 수 있도록 소양 교육이 이뤄져야 할 것”이라고 말했다. *딥페이크(deep fake): 딥러닝(deep learning)과 가짜(fake)의 혼성어로 인공지능을 기반으로 한 인간 이미지 합성 기술이다. 생성적적대신경망(GAN)이라는 기계학습 기술을 사용해 기존의 사진이나 영상을 원본이 되는 사진이나 영상에 겹쳐서 만들어진다.