2021-05-13 08:35 (목)
[기고] 딥페이크, AI 기술발전이 가져온 부작용
[기고] 딥페이크, AI 기술발전이 가져온 부작용
  • 안소윤 기자
  • 승인 2021.04.14 11:20
  • 댓글 0
이 기사를 공유합니다

하나금융경영연구소 황성영 수석연구원

최근 인공지능(AI) 기술 기반 컨텐츠가 확산하고 있는 가운데 ‘딥페이크(Deepfake)’ 기술을 악용한 명예훼손, 금융사기 등 디지털 범죄 사례가 크게 증가하고 있다.

딥페이크 감지를 위한 기술투자가 지속되고 있지만 아직 초보적 수준이라 피해를 방지하기 위한 강력한 제재 법안 마련이 필요해보인다.

미국 시장조사업체인 가트너는 오는 2023년부터 전체 금융사기 범죄 중 20%에 딥페이크가 활용될 것으로 예측했다.

AI 기술 중 가장 주목받고 있는 생성적 적대 신경망을 활용한 ‘음성변조·생성’ 기술의 악용 가능성 우려가 커진 것이다.

실제로 지난 2019년 3월 영국의 한 에너지기업에서 딥페이크 음성조작을 통해 걸려온 전화에 상사의 목소리로 거액을 송금하라는 지시를 받고 3억원을 사기당하는 사건이 발생하기도 했다.

기존 보이스피싱과 달리 대상의 가족관계 및 사회적 네트워크를 파악해 지인의 영상과 음성까지 묘사한 스피어피싱 범죄가 만연할 것이라는 예상이다. 영상과 음성을 동시에 위조한 초현실적인 컨텐츠가 제작 가능해짐에 따라 금융사기 피해가 급증할 것이란 전망이다.

딥러닝 기술을 기잔으로 하는 딥페이크가 ‘FakeApp’ 등 무료 소프트웨어(SW) 배포로 대중화되며 수많은 악용사례가 발생, 이로 인한 윤리 논쟁이 반드시 해결해야할 과제로 부상했다.

가장 빈번한 악용사례는 유명인의 얼굴·음성을 합성해 진짜 같은 가짜뉴스를 생성하거나 유명인을 사칭해 타인을 비난하는 등의 명예훼손이다.

2가지 머신러닝(가짜 데이터를 생성, 만들어진 가짜를 감지) 실행 후 감지할 수 없을 때까지 학습을 수행하므로 데이터가 많을수록 완성도가 높으며 이로 인해 현재까지는 유명인의 악용사례가 월등히 많다.

딥페이크를 생성하는 생성적 적대 신경망 기술이 지속적으로 개선되고 있어 향후 유명인뿐만 아니라 일반인도 범죄 대상이 될 수 있다.

딥페이크의 진위여부를 감지하기 위한 디지털 포렌식 기술 투자가 지속중이나, 생성적 적대 신경망은 자체 훈련을 통해 이를 회피하는 방법도 학습 가능하다.

기술업계에서는 디지털 위조 영상·음성을 찾아내는 기술이 아직 초기 수준이기 때문에 강력한 제재 법안의 마련이 병행돼야 한다는 것이 중론이다.

페이스북, 마이크로소프트, 구글 등 글로벌 기업을 중심으로 딥페이크 감지 솔루션 개발 활동이 진행되고 있지만 탐지 기술이 유포·확산 속도를 따라가지 못하기 때문에 동영상·음성이 이미 나온 뒤에는 실질적 회복이 거의 불가능한 게 현실이다.

국내의 경우 지난해 6월 딥페이크 영상 제작·배포를 성범죄로 처발하는 규정이 시행돘지만, 음성학습을 통한 보이스피싱은 기존 전자금융거래법 제9조(‘13년 5월) 외 처벌규정이 없는 만큼 법제 강화를 위한 조기검토가 필요해 보인다.

지난 2019년 일반 보이스피싱 피해건수가 3.8만건(6398억원)에 달하는 만큼, 딥페이크가 보이스피싱에 악용될 경우 피해는 더욱 커질 것으로 예상된다.

일반인의 경우 영상이나 목소리를 온전하게 위조할 정도로 수집 가능한 데이터가 많지 않아 아직 우려할 상황은 아니지만, 향후 늘어날 수 있는 디지털금융 범죄에 대비한 보다 광범위한 법제적 대비가 요구된다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.