업계기사

딥페이크 위험, 합성 미디어 탐지 시장 진화를 견인하다

작성자
marketing
작성일
2025-08-20 09:22
조회
497
파트너십으로 탐지 범위는 넓어지지만, 문제도 함께 확산된다

 

작성자: Joel R. McConvey

보도일자: 2025년 8월 11일

출처: Biometricupdate.com

 

딥페이크는 현재 가장 주목받는 문제다. 생성형 AI가 연일 헤드라인을 장식하며 다양한 사용층을 확보함에 따라, 사기의 잠재력도 커지고 있다. 기존 신원을 저렴하고 손쉽게 변조하거나 완전히 새로운 신원을 만들어낼 수 있는 도구들이 등장한 것이다. 정치인들은 자신이 한 적 없는 연설을 하는 가짜 영상에 등장하고, X의 Grok AI는 테일러 스위프트의 외설적인 딥페이크를 양산하고 있다.

 

최근 Biometric Update에 기고한 사이버보안 옹호자 제임스 R. 맥퀴건(James R. McQuiggan)은 이른바 ‘AI 쓰레기(AI slop)’의 확산을 지적하며, ‘거짓말쟁이의 배당금(Liar’s Dividend)’이라는 개념을 탐구했다. 이는 “허위 정보가 넘쳐나는 환경에서 거짓 정보를 퍼뜨리는 사람이 얻는 이점”을 뜻하며, “가짜 뉴스”라는 외침으로 그럴듯한 부인을 가능하게 하고, 현실을 마음대로 왜곡해도 아무런 결과를 받지 않게 만드는 것을 의미한다.

 

이 문제는 복잡하며, 진실·증거·책임과 같은 사회의 근본적 개념에 막대한 영향을 미친다. 불과 짧은 시간 안에, 합성 또는 조작된 미디어를 탐지하는 고급 시스템을 제공하는 기업들이 등장했고, 이는 Biometric Update와 굿 인텔리전스(Goode Intelligence)가 발간한 2025 딥페이크 탐지 시장 보고서 & 구매 가이드에도 소개되어 있다.

 

리얼리티 디펜더, 딥페이크 미디어 탐지를 데이터 분석으로 확장

리얼리티 디펜더(Reality Defender)는 데이터 인텔리전스 모니터링 기업 프라이머 테크놀로지스(Primer Technologies)와 협력해, 리얼리티 디펜더 CEO 벤 콜먼(Ben Colman)이 “새롭게 등장하는 위협을 포착하는 데 그치지 않고, 콘텐츠가 실제 인간에게서 나온 것인지 정교한 AI 시스템에서 생성된 것인지를 실제로 검증하는 최초의 AI 네이티브 인텔리전스 스택”이라고 부르는 기술을 구축하고 있다.

 

딥페이크 탐지 전문 업체인 리얼리티 디펜더의 블로그 게시물에 따르면, 이번 파트너십을 통해 디지털 환경 전반에서 패턴과 위험 신호를 추적하는 프라이머의 Enterprise 및 Command 제품에 리얼리티 디펜더의 멀티모델 인증 계층이 적용된다. 이를 통해 영상, 오디오, 이미지, 텍스트 전반에 걸쳐 합성 미디어를 탐지하고 검증할 수 있게 된다.

 

콜먼은 “그 결과는 전례 없는 것”이라며, “인텔리전스 분석 과정에 실시간 합성 콘텐츠 탐지를 직접 내장하게 됐다”고 설명했다. 그는 이번 협력이 딥페이크 탐지와 데이터 분석을 결합해 선제적 방어 체계로 나아가는 변화를 가져왔다고 덧붙였다.

 

프라이머(Primer) CEO 션 모리아티(Sean Moriarty)는 “우리의 분석 제품에 리얼리티 디펜더의 합성 미디어 탐지 기능을 통합함으로써, 온라인 콘텐츠의 진위와 맥락에 대해 전례없는 통찰력을 제공하는 솔루션을 제공하게 됐다”고 말했다.

 

그는 이어 “위협 평가를 수행하는 정부 기관, 브랜드 평판을 보호하는 기업, 의심스러운 활동을 조사하는 보안팀 모두가 ‘무슨 일이 일어나고 있는지’ 뿐만 아니라 ‘그것이 실제인지 여부’까지 알 수 있는 동일한 중요한 이점을 얻게 된다”고 덧붙였다.

 

현실 점검: 딥페이크, 개인적 상호작용으로 확산

현실 여부는 딥페이크와 생성형 AI 전반에 관한 논의에서 핵심적인 주제다. 현실의 구조가 붕괴될 위험에 처해 있다고 말하는 것은 황당하게 들릴 수 있지만, 규제 없는 딥페이크가 만연한 세상이 얼마나 불안정해질 수 있는지 지적하는 목소리가 점점 더 커지고 있다.

 

뉴욕타임스 칼럼니스트 제이네프 튀펙치(Zeynep Tufecki)는 자신의 오피니언 글에서, 현재 상황에 대해 “비판적 사고”만으로 충분히 대응할 수 있다는 생각을 단호히 부정했다.

 

그녀는 “영상은 조작이 어렵다는 이유로 마지막 검증 수단 중 하나였다. 그러나 이제 그것마저 무너진 상황에서, 직접 목격하지 않은 일에 대해 확신할 수 있는 사실상 유일한 방법은 신뢰할 수 있는 출처를 찾아 검증하는 것이다. 아, 그런데 신뢰할 수 있는 출처가 뭐냐고요? 바로 여기에, 우리 사회에 남은 것이 있다”고 썼다.

 

튀펙치는 딥페이크 영상을 누구나 쉽게 만들 수 있는 세상을 상상하며, 이것이 책임(liability)이라는 개념 전체를 혼란에 빠뜨릴 수 있다고 경고한다. “이웃의 차를 긁는 장면이 카메라에 찍혔다고요? 그냥 딥페이크라고 주장하세요. 아니면 다른 사람이 그 행동을 하는 가짜 영상을 만들어 내세요. 이제는 ‘네 말 vs 내 말’이 되는 거죠. 아니면 정말 딥페이크일 수도 있잖아요. 그걸 어떻게 반박하겠습니까?”

 

해결책에 대해서도 일부 언급하며, 튀펙치는 “과학자들과 일부 기술 업계가 몇 가지 매우 유망한 프레임워크를 고안해냈다”며, 그 예로 영지식 증명(Zero-Knowledge Proofs), 보안 인클레이브(Secure Enclaves), 공개키 암호화를 활용한 하드웨어 인증 토큰, 분산 원장(Distributed Ledgers) 등을 들었다.

 

마찬가지로, 딥페이크 위험이 어떻게 진화하고 있는지를 살펴본 런던정경대(LSE) 비즈니스 리뷰 블로그 글은 디지털 워터마킹, 암호화 메타데이터, 블록체인 기반 출처 검증 시스템 등이 이 문제를 해결하는 잠재적 도구가 될 수 있다고 지적했다.

 

하지만 양측이 전하는 핵심 메시지는 ‘경고’다.

 

튀펙치는 “진위와 검증의 마지막 증거마저 사라지기 전에, 그 필요성을 지금 당장 진지하게 받아들이지 않는다면 정부가 그 공백을 메우게 될 것”이라며, “만약 정부가 이미 권위주의자들에 의해 운영되고 있지 않더라도, 그렇게 되는 데는 그리 오랜 시간이 걸리지 않을 것”이라고 썼다.

 

LSE 역시 같은 우려를 표했다. “딥페이크를 둘러싼 공적 논의는 종종 정치적 허위정보, 특히 선거철에 집중된다. 그러나 이러한 시각은 지나치게 협소하다”며, “딥페이크로 인한 피해는 이제 공공 안전, 보건, 금융 시스템, 위기 대응 영역까지 확산되고 있다”고 밝혔다.

 

따라서 LSE는 튀펙치와 마찬가지로 인식 제고의 역할을 무시하지 않으며, 이를 효과적인 혼합 접근법에 필수적인 요소로 본다.

 

LSE는 “딥페이크가 정치 영역에만 국한되지 않고, 오히려 일상 전반에 스며들어 있다는 사실을 이해하는 것이 제도적·기술적·시민적 대응을 촉진하는 핵심”이라며, “이를 위해 시민사회단체와 협력해 합성 미디어가 초래하는 광범위한 위험을 알리는 대중 교육 캠페인을 전개해야 한다”고 주장했다.

 

또한 “통합 전략을 통해서만 사회가 이러한 기술이 야기하는 위험에 윤리적·효과적·민주적으로 맞설 수 있다”고 강조했다.