업계기사

에이전틱 AI가 딥페이크 위기를 가속한다: 기업이 취해야 할 대응 전략

작성자
marketing
작성일
2025-12-01 09:24
조회
3693
알릭스 멜키(Alix Melchy), Jumio AI 부사장 작성

 

작성자: Alix Melchy

보도일자: 2025년 11월 26일

출처: Biometricupdate.com

 

사기는 이제 도난된 비밀번호에만 국한되지 않습니다. 지금은 합성 신원(synthetic identities), 디지털 위조물, 그리고 악의적 행위자가 손쉽게 만들어낼 수 있는 AI 기반 기만 기술까지 포함됩니다. 사기의 정교함이 이렇게 높아지면서 이미 큰 영향을 미치고 있으며, FBI는 딥페이크 영상 관련 신고가 두 배 이상 증가했고, 금전적 피해는 올해 거의 세 배로 늘었다고 보고했습니다.

 

딥페이크를 탐지하기가 점점 더 어려워지고 있음은 명백합니다. 특히 고도화된 기술적 지원 없이는 더욱 그렇습니다. 현재와 같은 대규모·고도화된 공격 환경에서, 기업이 운영을 안전하게 보호하기 위해 선택할 수 있는 유일한 현실적 해법은 AI입니다. AI는 고급 방어 체계의 접근성을 높이고, 사용자 경험에서 마찰을 줄이며, 비용까지 낮춰 더 큰 확장성(scalability)을 가능하게 해주기 때문입니다.

 

기만의 높은 대가

AI 기반 사기가 더욱 정교해지면서, 딥페이크가 기업에 초래하는 재정적 피해는 더욱 심각해지고 있습니다. 딜로이트 금융서비스센터(Deloitte’s Center for Financial Services)는 생성형 AI로 인해 미국 내 사기 피해액이 2023년 123억 달러에서 2027년 400억 달러로 증가할 수 있으며, 연평균 성장률은 32%에 달할 것이라고 예측합니다.

 

이를 좀 더 실감나게 설명해보면 다음과 같습니다. 어느 재무 직원이 CFO(최고재무책임자)와 여러 동료가 참여한 팀 화상회의에 초대됩니다. 모두 모습도, 목소리도 실제와 완전히 동일해 보입니다. 직원은 이것이 정당한 회의라고 믿고, 회사 자금 2,500만 달러 송금 승인 요청을 그대로 받아들입니다. 하지만 나중에서야 깨닫게 됩니다. 그 회의에 있던 모든 사람은 딥페이크였으며, 이 상황은 한 전문 사기 조직이 설계한 고도의 기만 행위였습니다. 이는 실제로 2024년에 한 글로벌 기업이 수백만 달러의 피해를 입은 사건입니다. 이런 사례는 AI가 더욱 정교해지고 접근성이 높아지면서 점점 더 흔해지고 있습니다.

 

AI 에이전트로 확산되는 자율형 사기의 확장

생성형 AI의 대중화는 정교한 사기에 필요한 진입장벽을 지속적으로 낮추고 있습니다. 악의적 행위자가 영상과 음성을 조작해 사기를 시도하는 것이 그 어느 때보다 쉬워졌습니다. 최근의 한 신원 인증 설문조사에 따르면, 응답자의 74%가 딥페이크 영상과 음성이 실제처럼 보이고 들린다고 답했으며, 41%는 딥페이크를 식별할 자신이 없다고 밝혔습니다.

 

생성형 AI가 이러한 사기 시도를 가속했다면, 에이전틱 AI(agentic AI)는 이를 훨씬 더 악화시킬 것입니다. 에이전틱 AI는 인간 투입을 줄임으로써 사기 비용 자체를 낮추고 있습니다. IBM X-Force의 최근 연구는 이를 명확히 보여줍니다: 과거 전문가가 16시간 걸리던 피싱 이메일 작성이, 이제는 AI가 5분 만에 작성할 수 있다는 것입니다. 이러한 자동화 능력은 숙련된 대규모 팀 없이도 다단계 사기 작업과 복잡한 공격 체인을 수행할 수 있게 만듭니다. 그 결과, AI 에이전트는 고급 코딩에 필요한 지식 수준까지 낮추고 있어 기술이 부족한 공격자조차 고도화된 사기를 실행할 수 있는 환경을 만들고 있습니다. 이 변화는 중요한 의미를 갖습니다. 사기범의 목표가 더 이상 대기업에만 국한되지 않는다는 것입니다. 사기 실행 비용이 싸지고 쉬워졌기 때문에, 작은 기업을 노리는 것이 훨씬 효율적이 되었고, 소규모 금액의 피해도 충분히 ‘수지 맞는’ 범죄가 되고 있습니다.

 

게다가 에이전틱 AI는 사용자의 전문 지식이 거의 없어도 빠르게 공격을 실행할 수 있을 뿐 아니라, 대규모 네트워크 형태로 동시에 배포될 수 있습니다. 몇 분 만에, 여러 플랫폼에서 수백만 건의 동시 사기 시도를 인간의 지속적인 감독 없이 실행할 수 있습니다. 이는 사기 조직 내에서 유령 오퍼레이터(ghost operators)를 증가시키며, 에이전틱 AI를 사이버 범죄를 위한 ‘플러그 앤 플레이’ 서비스로 전락시키고 있습니다. 이러한 변화는 기존의 신원 검증 체계를 무너뜨리고 있으며, 기업들은 거대한 규모로 다가오는 자율형 사기 공격에 대응해야 하는 상황에서 이미 깨진 보안 패러다임을 마주하고 있습니다.

 

AI로 맞불 놓기: 다층적 AI 기반 방어 전략

에이전틱 AI가 사기를 새로운 차원으로 끌어올리고 있는 지금, 기업을 안전하게 지키는 가장 효과적인 방법은 불에는 불로 대응하듯, AI를 AI로 상대하는 것입니다. 이를 위해 기업들은 악의적 행위자가 성공하기 훨씬 어렵도록 만드는 다층적 AI 방어 전략을 도입해야 합니다. 전통적인 검증 방식처럼 사용자 경험에 마찰을 추가하거나, 개인 정보를 더 많이 수집하는 방법은 고객 이탈을 초래하기 때문에 더 이상 효과적인 전략이 아닙니다. 대신 기업들은 디지털 신원 보호 방식 자체를 다시 설계해 사기와 시기 관련 손실을 줄이는 동시에 고객 신뢰와 디지털 참여도를 유지해야 합니다.

 

이를 달성하려면 조직의 방어 시스템은 다음을 수행할 수 있어야 합니다:

  • 개별 행동을 맥락화하고
  • 피해 범위를 세밀하게 분리하며
  • 권한을 지속적으로 재평가할 것

즉, 고도로 안전한 시스템은 사용자의 신원을 한 번만 확인하는 것이 아니라, 사용자가 무엇을, 어디서, 왜 수행하는지를 지속적으로 평가하는 시스템입니다.

 

방어의 핵심 축

에이전틱 AI 기반 사기에 대비하려면, 기업은 단순히 사용자가 누구인지 확인하는 수준을 넘어, 개별 사용자의 장기적·정확한 위험 프로필을 구축하는 ‘아이덴티티 인텔리전스(identity intelligence)’ 관점에서 접근해야 합니다. 이를 통해 조직은 실제 사용자와 딥페이크를 구분하고, 심각한 피해가 발생하기 전에 위험을 사전에 차단할 수 있습니다. 다층적 방어 체계를 구축하기 위해 기업이 적용해야 할 핵심 전략은 다음과 같습니다:

  • 지속적 인증(Continuous authorization)
    신원을 검증하려면 단순 로그인 이상의 접근이 필요합니다. 사용자가 실제 인간인지, 자동화된 봇이 아닌지를 확인하는 강력한 검증 절차가 필수입니다. 안전한 방어 시스템은 다음을 수행해야 합니다:
    위험 기반의 점진적 마찰(progressive friction) 적용
    · 세션이 유지되고 있다고 해서 계속 인증이 유효하다고 가정하지 않기
    · 사용자의 행동을 기반으로 지속적인 재평가 실행
    또한 고급 생체 감지(liveness detection) 기술을 적용해 딥페이크 공격을 탐지하고 실시간으로 실제 인간의 존재 여부를 확인함으로써 사기 시도가 발생하기 전에 차단할 수 있습니다.
  • 거래 전반에 걸친 모니터링(Monitoring across transactions)
    개별 상호작용이나 단일 거래만 분석하는 것은 충분하지 않습니다. 기업은 전체 네트워크 전반의 거래를 종합적으로 분석해야 합니다. 이러한 포괄적 모니터링을 통해:
    행동 분석(behavioral analytics)을 활용해 사기 패턴을 식별하고
    · 이상 징후(anomalies)를 탐지하며
    · 반복 시도, 공격 패턴, 신종 위협(예: 은밀히 활동하는 로봇 등)을 피해 발생 전에 미리 차단할 수 있습니다. 이런 방식은 에이전틱 AI 시대에서 사기 리스크를 선제적으로 예방하고 사용자 신뢰를 유지하는 핵심 전략이 됩니다.
  • 다층적 위험 신호(Layered risk signals)
    사용자 온보딩 단계에서만 위험을 평가하는 것으로는 충분하지 않습니다. 사용자 전체 생애주기(Lifecycle)에 걸쳐 다층적 위험 신호를 지속적으로 분석함으로써, 기업은 특히 내부 직원처럼 중요한 자산에 접근할 수 있는 인물에 대해 더 정밀한 위험 감지를 수행할 수 있습니다. 직원은 기만당하거나(fouled), 또는 계정이 탈취되어 기업의 핵심 자산을 위협할 수 있기 때문입니다. 기업은 다음을 지속적으로 점검해야 합니다:
    사용자 이메일 주소의 평판(reputation)
    · 사용자 전화번호의 평판
    · 사용자 IP 주소의 위험 여부
    과거 사기 활동에 사용된 이력이 있는지 분석함으로써, AI 에이전트를 대규모로 활용하는 사기 조직(fraud rings)도 조기에 식별할 수 있습니다. 이 과정은 다음을 충족하는 엄격한 데이터 처리 규칙에 의해 운영되어야 합니다:
    · 필요한 정보만 최소한으로 수집
    · 개인정보를 비보안 환경에 저장하지 않기
    · 데이터 오용 방지
    · 고객의 프라이버시 기준을 충족
  • 영향 범위 최소화(Limit the scope of impact)
    제로 트러스트(Zero-Trust) 아키텍처를 도입하면, 보안 침해가 발생하더라도 피해가 광범위하게 확산되는 것을 방지할 수 있습니다. 기업은 다음과 같은 방식으로 공격의 영향력을 제한해야 합니다:
    핵심 시스템과 민감 자산에 대한 접근 권한을 세분화(segmentation)
    · 고위험·고가치 작업에 대해 다중 승인(Multi-approval) 적용
    이러한 방식은 공격이 성공하더라도 피해를 국소화(Localize)하고 확산을 차단하는 데 결정적인 역할을 합니다.

 

AI 무기 경쟁의 미래

에이전틱 AI가 발전하면서 사기 조직과 딥페이크 확산의 핵심 동력이 되고 있는 현재, 기업은 신원 인텔리전스(identity intelligence)를 모든 보안 운영에 통합한 더 포괄적인 방어 전략을 구축해야 합니다. 이러한 접근을 통해 기업은 전통적인 보안 점검을 우회하는 AI 기반 위협을 무력화할 수 있습니다.

 

지금 강력한 방어 시스템을 구축하지 않는 기업은, 사기범들이 새로운 기술과 플랫폼을 무기로 삼을수록 더 취약한 상태에 놓일 것입니다. 이로 인해 기업의 평판이 치명적으로 훼손될 수 있고, 막대한 재정적 손실이 뒤따를 수 있습니다. 반대로, 지속적으로 방어 시스템을 업데이트하는 기업은 이 기술적 ‘무기 경쟁’에서 한발 앞서 나갈 수 있는 위치를 선점하게 될 것입니다.

 

저자 소개

알릭스 멜키(Alix Melchy)는 Jumio의 AI 부사장으로, 전 세계의 머신러닝 엔지니어 팀을 이끌며 컴퓨터 비전, 자연어 처리, 통계 모델링을 중심으로 연구·개발을 수행하고 있습니다.