업계기사

딥페이크 공포: 생성형 AI 시대, 가짜 미디어는 일상의 문제가 되다

작성자
marketing
작성일
2025-11-18 09:33
조회
17100
진화하는 기술을 악용한 사기 증가로 합성 영상·음성이 전 산업에 확산되다

 

작성자: Joel R. McConvey

보도일자: 2025년 11월 12일

출처: Biometricupdate.com

 

딥페이크 기술이 빠른 속도로 우리가 인지하는 현실을 재편하면서, 예전에는 신원 인증 분야의 ‘마니아들’만 다루던 주제들이 이제 전 세계가 주목하는 문제가 되었다. OpenAI의 Sora로 손쉽게 생성되는 딥페이크 영상, 사기 전화에 등장하는 알고리즘 기반 합성 음성, 이제 합성 미디어는 대부분의 사람들을 속일 만큼 정교해졌고, 라이브니스(Liveness) 감지, 딥페이크 탐지, 초상 보호(Liveness Protection) 같은 기술이 갑자기 시급한 운선순위로 떠올랐다.

 

생체인식 업계는 수년 전부터 이 문제에 대응해 왔지만, 사기 공격(fraud attacks)이 진화함에 따라 이를 막기 위한 혁신적인 방어 기술의 필요성도 함께 증가하고 있다.

 

레귤라(Regula) 최신 보고서: “딥페이크가 최고 수준의 사기 위협”

벤더 레귤라(Regula)의 새로운 데이터에 따르면, 2025년 전 세계에서 가장 빈번하게 발생한 3대 사기 유형은 다음과 같다.

  1. 신원 스푸핑(identity spoofing)
  2. 생체인식 기반 사기(biometric fraud)
  3. 딥페이크 사기(deepfake fraud)

 

레귤라의 보고서 『신원 인증의 미래: 5가지 위협과 5가지 기회(The Future of Identity Verification: 5 Threats and 5 Opportunities)』는 이렇게 말한다. “전장(battlefield)은 사칭(impersonation)으로 이동했다. 이는 인간 심사자와 머신 알고리즘 모두를 겨냥한 생체정보·영상·합성 신호(synthetic signals)의 고의적 조작이다.” 5백만 달러 이상의 손실을 입은 고위험 조직에서는 딥페이크와 합성 신분증(synthetic IDs)이 가장 흔한 사기 유형으로 꼽혔다.

 

레귤라 보고서의 핵심 요지는 다음과 같다. “딥페이크는 더 이상 주변적 위협이 아니다 – 대규모 신원 사기의 핵심 동인(main driver)이다. 대량의 딥페이크 공격과 큰 손실에 노출된 기업에게 PAD(프레젠테이션 공격 탐지)와 고급 라이브니스 감지(advanced liveness)는 더 이상 선택 옵션이 아니라 기본 요구사항(baseline requirements)이 되었다.”

 

경영진, 커지는 딥페이크 위협에 대해 경고하다

Asian Banking and Finance의 기사에 따르면, 2025 싱가포르 핀테크 페스티벌(Singapore Fintech Festival 2025)에 참석한 마스터카드(Mastercard), DBS, 스위프트(Swift), 앤트 인터내셔널(Ant International), 미쓰이스미토모은행(SMBC)의 경영진들은 가장 큰 산업 위협으로 AI 기반 사이버 공격, 딥페이크, 데이터 유출, 알고리즘 오류를 지목했다.

 

마스터카드의 크레이그 보스버그(Craig Vosburg, 최고 서비스 책임자)는 만약 사이버 범죄(cybercrime)를 하나의 국가로 본다면 “세계에서 GDP 3위 규모가 될 것”이라고 강조했다. 그는 기술적 보호장치(safeguards)에 대한 투자와 강력한 파트너십 구축이 방어 전략의 출발점이 되어야 한다고 조언했다.

 

앤트 인터내셔널(Ant International)의 CEO 양 펑(Yang Peng)은 자사 시스템에서 첫 딥페이크 공격을 2024년 1월에 탐지했지만, 현재는 전 세계적으로 하루 2만 건의 딥페이크 공격 시도를 관측하고 있으며, 그 대부분이 아시아 지역을 대상으로 한다고 밝혔다.

 

스위프트(Swift) 최고경영자 하비에르 페레스-타소(Javier Pérez-Tasso)는 기술 자체는 오히려 쉬운 부분이라고 발한다. 그는 이렇게 강조한다. “AI를 안전하게 확장하기 위해 정말 중요한 것은 거버넌스, 관리 체계, 프레임워크, 올바른 프로세스, 표준화, 그리고 인력 재교육(upskilling·reskilling)입니다.” 그는 AI 프레임워크의 표준화와 국경을 넘는 협력(cross-border cooperation)을 “미래 산업의 토대(the foundation of the future industry)”라고 표현했다.

 

“AI 시대에는 각 국가의 규제가 전 세계적으로 상호운용(interoperate)해야 합니다. 공공·민간 부문의 협력이 필수적입니다.”

 

한편, 위협이 커지고 있음에도 불구하고 AI 활용에 대한 업계의 열정은 여전히 매우 높다. SMBC(미쓰이스미토모 은행) 글로벌 뱅킹 부문 공동 대표이자 부사장인 요시히로 햐쿠토메(Yoshihiro Hyakutome)는 이렇게 말했다. “우리는 아바타 CEO를 만들었습니다. 그래서 주니어 직원들이 이 아바타 CEO에게 다가가 어려운 질문을 할 수 있습니다. 이 AI는 직원들에게 도전 과제를 던져주죠. 이는 직원들이 AI를 상사이자 동료, 협업자로 느끼도록 돕는 것입니다.”

 

Sora 2 딥페이크, 법률부터 의료까지 전 산업에 확산

Dark Reading은 OpenAI의 영상 생성형 AI 도구 Sora 2가 초래하는 위험에 초점을 맞추고 있다. 기사 작성자는 관례적으로 “창의성·속도·확장성 측면에서 GenAI는 많은 유익한 활용 사례가 있다”고 언급하며 시작하지만, 정작 창작자들의 작품이 AI 모델 학습에 무단 사용된 문제에 대해 불만이 크다는 점은 외면하고 있다.

 

그러나 이러한 형식적 언급을 지나, 기사는 Sora 2가 개인과 기업에 초래할 급박한 위험을 분석한다. “공격자는 Sora 2를 악용해 더욱 정교한 사회공학(social engineering) 공격을 수행하고, 심지어 높은 수준의 사용자들까지 속일 수 있는 딥페이크를 만들어낼 수 있다.” 또한 “배우조합 SAG-AFTRA가 Sora 2에 대해 공식적으로 이의를 제기한 후, OpenAI는 이미 딥페이크 관련 안전장치를 강화해야 했다.”고 지적한다.

 

기사는 딥페이크 탐지 기업 Reality Defender의 CEO 벤 콜먼(Ben Colman)의 발언도 인용한다. 그는 다음과 같이 경고한다. “규제가 부재한 상황에서 OpenAI가 준비되지 않은 규제 환경에 제품을 밀어 넣고 있기 때문에, 신원 사기(identity fraud), 금융 사기(financial fraud), 공공 안전 위협의 위험은 매우 높으며 계속 증가하고 있다.”

 

콜먼(Colman)은 Sora 2의 음성(realistic voice) 정교화가 특히 심각한 우려라고 지적한다. 더 자연스러운 억양(cadence)과 표현(expression) 덕분에 길고 복잡한 대화를 사실적으로 합성할 수 있기 때문이다. 이로 인해 발생할 수 있는 위험은 명확하다.

  • 딥페이크 상사(Deepfake boss)가 전화를 걸어 “해외 계자로 돈을 송금하라”고 지시할 수 있다.
  • 딥페이크 의료진(healthcare practitioners)이 환자를 속여 금전적 피해를 입힐 수 있다.
  • 법률팀(legal teams)은 더 이상 영상 증거가 실제인지 합성인지 확신할 수 없게 된다.

 

그럼에도 불구하고, 기술 산업이 속도를 늦추는 기미는 없다. 구글의 생성형 비디오 도구 Veo는 Sora 2보다 더 현실적인 영상을 생성할 수 있는 것으로 알려져 있다.

 

Reality Defender, 싱가포르 통화청(MAS)이 지목한 3대 딥페이크 위협 요소 분석

Reality Defender는 딥페이크 관련 동향 분석에서 자주 인용되는 주요 기관이며, 최근 수익총괄책임자(CRO) 브라이언 레빈(Brain Levin)은 싱가포르 통화청(MAS)이 금융기관 위협 요인으로 지목한 3가지 딥페이크 위협 요소를 분석한 블로그 글을 공개했다.

 

첫번째로 생체인식 인증 시스템이 무력화되고 있다. 레빈은 인도네시아, 태국, 베트남에서 AI로 생성된 딥페이크 사진과 도용된 자산(stolen assets)을 이용해 생체인식 인증 시스템이 실제로 뚫린 사례들을 소개한다.

 

그는 이어 이렇게 설명한다. “MAS는 라이브니스(liveness) 검증 기술 도입을 권고하고 있습니다. 이는 인증 과정에서 움직임, 질감(texture), 3D 깊이(3D depth) 등을 분석하는 방식입니다.” 또한 MAS는 “정적 이미지(static images)를 받는 대신, 인증 시 사용자에게 특정 동작을 수행하도록 요구하는 방식을 권장한다”고 제시한다. 그리고 얼굴이 아닌 생체정보 – 예: 지문(fingerprint), 정맥(palm vein) 등 – 에 대해서는 각 생체 특징의 합성(synthetic) 재현물을 탐지할 수 있도록 별도의 정교한 탐지 기법이 필요하다고 덧붙였다.

 

두번째로 딥페이크는 기존 사회공학 공격을 ‘극도로 현실적’으로 증폭한다. 레빈은 MAS의 두 번째 핵심 발견을 다음과 같이 설명한다. “딥페이크 기술은 임원, 동료, 신뢰 관계에 있는 사람들을 영상·음성으로 완전히 흉내내, 기존 사회공학 공격(social engineering)을 극적으로 강화합니다.” 대표 사례는 홍콩 아룹(Arup) 사건이다. 해커가 영상 회의에 침투(injection attack)하여, 딥페이크 상사들이 직원에게 2,500만 달러 송금을 지시했고 직원은 이를 실제 지시로 믿고 돈을 이체했다. 또한 최근 증가한 채용 사기(employment fraud)도 같은 유형이다. 딥페이크 지원자가 화상면접에 등장하여 원격 채용 프로세스를 침투하는 방식이다.

 

레빈은 덧붙인다. “MAS는 고위 권한 계정(high-privilege accounts)과 고위험 업무(예: 송금, 민감 데이터 접근)에 대해 반드시 다중 인증(MFA)을 적용할 것을 강조합니다.”

 

마지막으로 딥페이크는 시장 신뢰를 무너뜨리는 ‘허위 정보 캠페인’을 촉발한다. MAS의 세 번째 발견은 다음과 같다. “허위정보 캠페인(misinformation campaigns)이 시장 신뢰를 직접 공격한다.” 공개 인물을 사칭하거나, 가짜 사건 영상(fake footage)을 유포해 투자 심리와 시장 움직임을 조작하려는 시도가 늘고 있다. 이에 MAS는 다음을 권고한다. “SNS, 웹사이트, 영상 플랫폼, 뉴스 등 모든 디지털 채널에서 딥페이크 기반 브랜드 악용(brand abuse) 및 사칭 공격(impersonation attempts)을 탐지하기 위한 모니터링 도구를 반드시 구축해야 한다.”

 

레빈은 강조한다. “딥페이크 위협은 내일의 문제가 아니다. 지금 즉시 방어 체계를 강화해야 한다.”

 

Secured Signing, Reality Defender 딥페이크 탐지 기술 도입

디지털 서명 및 원격 온라인 공증(RON) 서비스를 제공하는 Secured Signing이 Reality Defender의 딥페이크 탐지 기술을 자시 보안 시스템에 통합하여 전용 딥페이크 탐지 도구 ‘Realify’를 출시한다고 발표했다.

 

보도자료에 따르면, Realify는 Reality Defender의 종합적인 멀티모달(multi-modal) 딥페이크 탐지 기술을 활용해 서명자의 영상과 음성을 분석하여, 온라인 미팅 전과 진행 중 내내 진짜인지 여부를 확인한다.

 

Realify의 자동 딥페이크 검증 프로세스는 간단한 사용자 경험(UX)을 갖춘 얼굴 스캔 기반 신원 검증 기능을 제공하며, 이 스캔은 과정 중 언제든지 반복 수행이 가능하다. Realify의 AI 모델은 얼굴 및 음성 데이터를 분석해 실시간 위험 점수(real-time risk score)를 생성하고, 자세한 검증 보고서(detailed report)를 제공한다.

 

Reality Defender의 CEO 벤 콜먼(Ben Colman)은 다음과 같이 말했다. “우리는 디지털 상호작용의 진위(authenticity)가 끊임없이 공격받는 시대에 살고 있습니다. 정교하게 생성된 AI 기반 미디어와 딥페이크는 법적 계약, 공증가 같은 고신뢰(high-trust) 프로세스 자체를 직접 위협합니다. Secured Signing과의 이번 파트너십은 더 넓은 신뢰 생태계(ecosystem of trust)를 구축하는 데 있어 매우 중요한 단계입니다.”

한편, Reality Defender는 J.P. Morgan 2025 Hall of Innovation에 선정되며 혁신성과 실질적 비즈니스 영향력을 인정받은 것을 기념하고 있다.

 

Pindrop, 영국 기업 고객 대상 오디오 딥페이크 탐지를 위해 BT와 파트너십 체결

음성 딥페이크 대응과 관련해 Pindrop은 BT 그룹(BT Group)과 전략적 파트너십을 체결하고, 영국 전역의 BT 기업 고객을 대상으로 음성 보안 솔루션을 제공할 예정이라고 발표했다.

 

보도자료에 따르면, BT는 Pindrop의 특허 기술인

  • Pindrop Protect
  • Pindrop Passport

등 인증 및 사기 탐지 기술을 자사 엔터프라이즈 포트폴리오에 통합할 계획이다. 이를 통해 보안 수준을 강화하면서도 운영 비용을 절감하는 것이 목표다.

 

Pindrop 수익총괄책임자(CRO) 버키 월러스(Bucky Wallace)는 다음과 같이 말했다. “이미 106통 중 1통이 딥페이크 징후를 보이고 있을 정도로, 합성 음성(synthetic speech)과 에이전틱 AI(agentic AI) 같은 위협은 기존의 사기 전략을 완전히 다시 쓰고 있습니다. BT와 함께 우리는 영국 기업들에게 최신 방어 체계, 즉 지속적으로 적응하며 조기 위험 탐지가 가능한 고도화된 음성 인텔리전스를 제공합니다. 이는 콜센터를 보안과 고객 경험 측면에서 미래 대응형(future-proof)으로 만드는 기반입니다.”

 

Pindrop의 기술은

  • 장치 인식(Device Recognition),
  • 폰프린팅(phoneprinting) 기술,
  • 행동 분석(Behavioral Analysis),
  • 합성 딥페이크 탐지(Synthetic Deepfake Detection)

등을 결합해 구성된다. 또한 유연한 통합 구조(flexible integration architecture) 덕분에 BT가 다양한 콜센터 환경에 있는 기존 및 신규 고객을 모두 지원할 수 있다는 점도 이번 파트너십 체결의 중요한 요인이었다.

 

더 많은 딥페이크 탐지 도구가 출시되다

3DiVi는 온라인 데모 버전인 3DiVi Deepfake Detector를 출시했다. 보도자료에 따르면 이 도구는 “사용자가 영상을 업로드하거나 실시간 카메라 스트림을 연결해, 프레임 단위로 해당 콘텐츠가 딥페이크인지 여부를 판단할 수 있다.” 이 데모는 무제한 테스트를 제공하며, 누구나 무료로 이용 가능하다.

 

3DiVi 측은 이렇게 설명한다. “이 도구는 단순한 데모가 아니라, 기존 보안·미디어·검증 플랫폼에 원활하게 통합될 수 있는 API 기반 모듈입니다. 즉, 대규모 자동 딥페이크 탐지를 구현하도록 설계되어 있습니다.”

 

호주 정부의 국가과학기관 CSIRO, Federation University Australia, RMIT University 공동 연구팀은 오디오 딥페이크 탐지를 향상시키는 새로운 기법을 개발했다. 보도자료에 따르면 이 기술은 RAIS(Rehearsal with Auxiliary-Informed Sampling)라고 불리며, 다음과 같은 방식을 사용한다.

  • 알고리즘이 과거 사례 중 소량이지만 다양하고 의미 있는 음성 데이터를 자동으로 선택해 저장
  • 이 안에는 사람이 감지하기 어려운 숨겨진 음성 특성(hidden audio traits)도 포함
  • 이를 통해 알고리즘이 새로운 특징을 학습하면서도 기존 특징을 잊지 않도록(continual learning) 설계됨
  • 목표는 더 풍부하고 다양성 있는 학습 데이터 구성

 

연구팀은 설명한다. “RAIS는 보조 라벨(auxiliary labels)을 생성하는 네트워크를 활용해 메모리 버퍼에 저장할 다양한 샘플을 효과적으로 선택합니다.” 광범위한 실험 결과, RAIS는 최신 기법을 능가하며 5가지 테스트 환경에서 평균 EER(Equal Error Rate) 1.953%를 달성했다.