업계기사
사기 피해 급증에 미 상원의원들, AI 기반 사칭 사기 금지 추진

작성자: Anthony Kimery
보도일자: 2025년 12월 23일
출처: Biometricupdate.com
미국 상원의원 셸리 무어 캐피토(Shelley Moore Capito)와 에이미 클로버샤(Amy Klobuchar)는 생성형 AI 시대에 가장 빠르게 확산되고 있는 소비자 위협 중 하나에 대응하기 위해, 초당적 법안인 인공지능 사기 예방법(Artificial Intelligence Scam Prevention Act)을 발의했다.
이 법안은 복제된 음성, 합성 이미지, 조작된 화상 통화 등을 활용해 피해자를 속이고 금전을 송금하게 하거나 민감한 개인정보를 유출하도록 유도하는 AI 기반 사칭 사기를 정조준하고 있다.
해당 법안이 제정될 경우, 이는 생성형 AI로 인행 발생하는 소비자 피해에 대해 연방 정부가 취하는 가장 직접적인 대응 중 하나가 될 전망이다.
이 법안은 AI 시스템이 어떻게 만들어지는지를 규제하기보다는, 어떻게 오용되는지에 초점을 맞춘다. 합성 사칭(synthetic impersonation)을 완전히 새로운 범죄 유형으로 보기보다는, 기존 사기 범죄가 진화한 형태로 간주하는 접근이다.
이 법안을 지지하는 입법자들은 이러한 구분이 의도적이며 필수적이라고 설명한다. AI 도구가 일상적인 커뮤니케이션 전반에 빠르게 내재화되고 있기 때문이다.
이번 입법은 AI를 활용한 사기가 기존 소비자 보호 법률의 대응 속도를 훨씬 앞지르고 있다는 증거가 누적되는 상황 속에서 추진되고 있다.
AI 기반 사칭 사기만을 정확히 분리한 수치는 아직 본격적으로 집계되고 있는 단계이지만, 여러 신뢰할 수 있는 추정치와 데이터는 AI를 활용한 사기로 인한 금전적 피해 규모가 이미 상당하며, 빠르게 증가하고 있음을 보여준다. 이 피해에는 사칭 수법이 중요한 비중을 차지하고 있다.
미국 연방수사국(FBI)에 따르면, 2020년 이후 수백만 건의 사기 신고가 접수되었으며, 그로 인한 총 피해액은 500억 달러를 초과한다. 이 가운데 점점 더 많은 비중이 딥페이크 및 합성 아이덴티티 사기에 기인한 것으로 나타나고 있다.
또한 미국 연방거래위원회(FTC)의 최근 자료에 따르면, 미국인들은 지난해 전화, 문자, 이메일을 통해 시작된 사기로 인해 약 20억 달러에 가까운 손실을 입었으며, 이 중에서도 전화 기반 사기가 피해자 1인당 손실액이 가장 큰 것으로 집계됐다.
최근 연구와 업계 전망에 따르면, 생성형 AI에 의해 가능해지거나 피해가 증폭된 사기 손실 규모는 2027년까지 미국에서 약 400억 달러에 이를 것으로 예상된다. 이는 2023년 약 120억 달러에서 크게 증가한 수치로, 범죄자들이 AI를 활용해 더욱 정교한 사기를 만들고 기존 방어 체계를 우회함에 따라 연평균 30%를 넘는 복합 성장률(CAGR)을 반영한다.
설문조사 결과에 따르면, AI 음성 복제 사기의 피해자가 된 사람들 중 상당수는 실제 금전적 손실을 경험했으며, 많은 피해자가 수백 달러에서 수천 달러를 잃었고, 일부는 1만 달러 이상의 손실을 입은 것으로 나타났다.
규제 당국과 소비자 보호 단체들은 생성형 AI가 이러한 사기 수법을 비약적으로 강화했다고 지적한다. 범죄자들이 가족 구성원, 은행 직원, 정부 관계자, 심지어 기업 임원까지도 대규모로 정교하게 사칭할 수 있게 되었기 때문이다.
인공지능 사기 예방법(Artificial Intelligence Scam Prevention Act)은 입법자들이 지적하는 확대되고 있는 법적 공백을 해소하는 것을 목표로 한다. 이 법안의 핵심은, 사기 목적을 가지고 AI를 이용해 특정 개인의 음성이나 이미지를 복제하는 행위를 명시적으로 불법화하는 것이다.
에이미 클로버샤 상원의원은 “인공지능은 사기를 더욱 정교하게 만들어, 특히 노인과 아동을 대상으로 사기범들이 개인정보나 평생 모은 자금을 속여 빼앗기 쉽게 만들었다”며, “이번 초당적 법안은 AI를 사용해 타인의 음성이나 이미지를 복제하는 사기범들에 맞서는데 도움이 될 것”이라고 말했다.
셸리 무어 캐피토 상원의원 역시 “인공지능에는 엄청난 잠재력이 있지만, 사기와 금융 범죄와 같은 유해한 활용으로부터 보호하는 데에도 경각심을 가져야 한다”며, “특히 사기와 스캠 문제에 있어서는 더욱 그렇다”고 덧붙였다.
사칭 사기 자체는 이미 불법이지만, 클로버샤와 캐피토 의원은 여전히 많은 법률이 합성 미디어가 존재하기 훨씬 이전에 제정된, 구시대적 정의에 의존하고 있다고 지적한다.
이번 법안은 AI로 생성된 음성, 이미지, 사전 녹음 메시지, 문자 메시지, 화상 회의 통화까지 명확히 포함함으로써, 검찰과 규제 당국이 아날로그 시대의 법을 억지로 디지털 기만에 맞춰 해석하지 않고도 즉각적으로 대응할 수 있도록 설계됐다.
또 하나의 핵심 내용은 AI 기반 사기에 대응하기 위한 범정부 자문위원회(interagency advisory committee)를 공식적으로 신설하는 것이다.
이 위원회는 연방거래위원회(FTC), 연방통신위원회(FCC), 그리고 금융 범죄 및 제재 집행을 관할하는 재무부(Department of the Treasury)를 포함한 여러 기관 간의 집행 공조와 정보 공유를 조정하는 역할을 맡게 된다.
클로버샤와 캐피토 의원은 AI 사기가 종종 통신 네트워크, 온라인 플랫폼, 금융 시스템을 동시에 가로지르는 형태로 발생하기 때문에, 이러한 기관 관 협력이 필수적이라고 강조한다.
또한 이 법안은 정부 기관 및 합법적인 기업을 사칭하는 행위를 금지한 FTC의 기존 규정을 법률로 명문화하여, 단순한 기관 규칙을 넘어 법적 효력을 갖는 성문법으로 격상시키는 내용도 포함하고 있다.
지지자들은 이번 변화가 금지 명령(injunctive relief)에 주로 의존하던 기존 방식에서 벗어나, FTC가 민사상 과징금을 부과하고 피해자에 대한 배상을 청구할 수 있는 더 강력한 권한을 부여하게 될 것이라고 주장한다.
이 법안은 또한 전화 마케팅 및 소비자 사기·남용 방지법(Telemarketing and Consumer Fraud and Abuse Prevention Act)과 1934년 통신법(Communication Act of 1934)을 개정하는 내용을 담고 있다. 이 두 법률은 1990년대 이후 현대 통신 기술의 변화를 충분히 반영하지 못한 채 사실상 개정이 이루어지지 않았던 법들이다.
소비자 보호 당국은 수개월 전부터 AI 기반 사기가 점점 더 그럴듯해지고, 동시에 탐지가 훨씬 어려워지고 있다고 경고해 왔다. 실제로 FTC와 FBI는 범죄자들이 소셜미디어에서 수집한 짧은 음성 클립을 활용해 거의 완벽한 음성 복제본을 생성하는 이른바 ‘가족 긴급 사기(family emergency scam)’가 급증하고 있다고 보고했다.
피해자들은 종종 자녀나 가족이 즉각적인 위험에 처해 있다고 믿으며 신속한 대응을 압박 받는다. 유사한 수법은 재무 부서를 겨냥한 송금 사기(wire fraud)에서 기업 임원을 사칭하는 방식으로도 사용되고 있다.
이번 법안에 대한 반응은 소비자 보호 단체와 금융 기관을 중심으로 전반적으로 긍정적이다. 이들은 그동안 AI 기반 사기로 인한 피해를 가장 크게 떠안아 온 주체들이다.
은행 업계는 각 주(州) 별로 제각각인 법률과 자율 가이드라인을 개별적으로 따라야 하는 상황 대신, 명확한 연방 차원의 기준을 마련해 달라며 의회에 지속적으로 요구해 왔다.
합성 미디어의 단순한 생성 자체가 아니라 사기 목적(intent to defraud)에 초점을 맞춤으로써, 지지자들은 이번 법안이 풍자, 접근성 향상, 엔터테인먼트, 예술적 표현 등 AI의 합법적 활용까지 포괄적으로 규제하는 부작용을 피한다고 설명한다.
예상대로 기술 기업들 역시 이 법안의 진행 상황을 면밀히 지켜보고 있다. 주요 플랫폼들은 최근 몇 달간 통화 차단·선별 도구, 사기 탐지 알고리즘, AI 생성 콘텐츠의 출처를 표시하는 신호(provenance signals) 등 자체적인 방어 조치를 잇따라 도입해 왔다.
그럼에도 업계 단체들은 집행 강화만으로는 미국 관할권 밖에서 활동하는 해외 행위자들을 막기 어렵다는 점을 경고하고 있다.
일부에서는 이 법안으로 신설될 자문위원회가 국제 공조와 정보 공유를 우선 과제로 삼아야 한다고 주장한다. 특히 현실적인 음성·영상 복제를 생성할 수 있는 AI 모델이 점점 소형화되고, 로컬 환경에서도 쉽게 구동 가능해지고 있는 상황을 고려해야 한다는 것이다.
한편 프라이버시 옹호 단체들은 사기 방지 노력이 사적인 커뮤니케이션에 대한 감시 확대로 조용히 이어지지 않도록 입법자들에게 주의를 촉구하고 있다. 이들은 AI 사기를 탐지하려는 압력이, 충분한 제한 장치가 없다면 암호화 및 이용자 프라이버시 보호와 충돌할 수 있다고 경고한다.
법안 자체는 새로운 모니터링 의무를 명시적으로 부과하지는 않지만, 비판론자들은 실질적인 영향은 규제 당국이 조항을 어떻게 해석하고 집행하느냐에 크게 좌우될 것이라고 지적한다.
의회가 2026년을 앞두고 여러 AI 관련 법안을 검토하는 가운데, 이번 사기 예방 법안은 워싱턴의 AI 정책 접근 방식이 보다 실질적인 방향으로 전환되고 있음을 보여준다.
미래의 잠재적 위험에 대한 추상적인 논쟁이 수년간 이어진 이후, 입법자들은 이제 소비자들의 진화, 이메일함, 은행 계좌에 실제로 피해를 주고 있는 구체적이고 측정 가능한 피해에 점점 더 직접적으로 대응하고 있다.
새로운 법적 프레임워크가 AI 기반 사기의 속도와 적응력을 따라잡을 수 있을지는 여전히 열린 질문이지만, 지지자들은 법을 현대화하지 않는다면 익숙한 목소리를 듣는 것만으로는 더 이상 상대방의 신원을 증명할 수 없는 세상에서 미국인들이 더욱 큰 위험에 노출될 것이라고 주장한다.