업계기사
영국 시민들 “경찰의 AI 활용 찬성… 하지만 조건이 있다”
작성자: 프레이저 샘슨 교수(전 영국 생체인식 및 감시카메라 위원회 위원장)
작성자: Fraser Sampson
보도일자: 2025년 10월 15일
출처: Biometricupdate.com
AI의 잠재적 영향력을 점점 인식하게 되면서, 인공지능(AI)의 활용과 오남용에 대한 논쟁은 여전히 주요 뉴스의 중심에 서 있다. AI를 어떻게 책임감 있고 투명하게 도입하고 적응시킬 것인가는 모든 산업 분야가 직면한 전략적 과제이며, 경찰(policing) 역시 예외가 아니다.
책임성(Accountability)이란 권한(power)을 가진 사람들이 그것을 올바르게 사용라는 것을 의미한다. 그 권한을 행사하는 주체가 경찰이라면, 그들이 권한 사용은 사회에 깊고 중대한 영향을 미칠 수 있다. 그리고 그 권한이 기술(technology)에 의해 증폭될 때, 책임의 범위 또한 기술의 사용까지 확장되어야 한다. 즉, 첨단 기술(advanced technology)에는 첨단 책임(advanced accountability)이 뒤따라야 한다. AI 기반 솔루션이 점점 더 저렴하고 신뢰서 있게 발전함에 따라, 전 세계 여러 나라의 경찰 수뇌부(police chiefs)는 공통된 두 가지 실질적인 질문을 던지고 있다. “AI의 책임성은 구체적으로 어떤 모습인가?” “그리고 우리는 그것을 어떻게 구현할 수 있는가?”
이 질문들은 CENTRIC(테러·복원력·정보·조직범죄 연구센터, Centre for Exellence in Terrorism, Resilience, Intelligence and Organised Crime Research)가 주도한 대규모 연구 프로젝트의 핵심이었다. 그 답은 AIPAS 프레임워크와, 영국 연구혁신재단(UKRI)의 지원을 받아 수행된 AIPAS(AI Accountability in Policing and Security) 프로젝트의 국민 설문조사 결과로 제시되었다.
책임성(Accountability)은 합법성(Lawfulness)과 밀접하게 연관되어 있지만, 단순히 법의 테두리 안에 머무르는 것만을 의미하지는 않는다. 경찰 조직은 국가의 한 기관(emanations of the state)으로서 특수한 권한(exceptional powers)을 행사한다. 법치주의(Rule of Law) 아래에서 경찰은 AI 도구의 사용과 관련해 법원(courts)에 책임을 져야 하지만, 그들의 보다 광범위한 책임 구조(wider accountability)를 파악하기 위해서는 법적 절차 외에도 다양한 책임 경로(accountability pathways)가 존재해야 한다.
사람들이 자신의 행동(또는 비행동)에 대해 누구에게, 어떻게 책임을 지는가는 국가마다 다르다. 그러나 AI 기반 기술(AI-enabled technology)을 경찰이 활용할 수 있는 기회는 전 세계적으로 매우 유사하다.
책임성의 원칙(accountability principles)을 법적 프레임워크(legal framework)와 분리해내는 일은 쉽지 않으며, AI의 비대칭적 진화 속도(asymmetrical speed of evolution) 또한 큰 도전 과제다. AI를 사용할 때의 책임성은 다음 세 가지 요소의 균형(balance)에 달려 있다:
- 기술적 요소(Technological) – 무엇을 할 수 있는가
- 법적 요소(Legal) – 무엇을 해야 하며, 무엇을 해서는 안 되는가
- 사회적 요소(Societal) – 사람들이 무엇을 지지하고, 무엇을 용납할 수 있는가
연구자들은 이 세 가지 관점에서 경찰의 책임성을 살펴본 결과, 기술의 발전 속도는 법의 진화보다 훨씬 빠르며, 경찰이 AI를 사용하는 것에 대한 대중의 인식(public attitudes)은 그동안 체계적으로 조사된 적이 없었다는 사실을 확인했다.
경찰관과 실무진의 집단적 경험(collective experience), 그리고 유럽·북미 등 여러 국가의 6,000명 이상을 대상으로 한 초기 설문조사를 바탕으로, 연구팀은 AI 기반 기술(AI-driven technologies)을 사용할 때의 경찰 책임성(police accountability)을 규정하는 핵심 지표들을 도출했다.
기술(technology), 법(law), 사회(society)가 서로 겹쳐 있는 만큼, 경찰 기관들은 자신들의 기술적 사양(technical specifications)이 법적 요건을 충족하는지 판단하기가 어렵다. 또한 AI의 기술-법적 문제(techno-legal issue)를 해결했다고 해서, 그 사용이 시민의 기대(citizen expectations)와 일치한다고 볼 수도 없다. 이에 연구진은 AI 정책과 실행이 각 지역 공동체의 기대나 우려와 어떻게 조화를 이룰 수 있는지를 이해하기 위해, 영국 전역의 시민 10,114명을 대상으로 심층 조사를 실시했다. 응답자는 14세에서 85세 이상까지 다양했으며, 전체의 61.3%가 AI의 경찰 활용(policing use of AI)에 찬성했다 – 단, 그 전제 조건으로 강력한 책임 구조(accountability), 감독 체계(oversight), 그리고 기술적·법적 안전장치(safeguards)가 갖춰져야 한다고 응답했다.
또한 응답자의 약 3분의 2(64%)는 AI가 경찰의 역량을 강화한다(enhance police capabilities)고 보았으며, 조사 결과는 AI 도입이 국가 안보(national security), 범죄 해결 능력(police effectiveness in solving crime), 그리고 중요 범죄(high-priority offending)에 집중하기 위한 시간과 자원 확보(freeing up time and resources) 측면에서 특히 유의미한 이점(advantages)을 가져올 수 있음을 보여주었다.
하지만 이러한 지지는 무조건적(unconditional)인 것은 아니었다. 조사 결과, 시민들은 경찰의 AI 활용에 대해 과도한 감시(oversurveillance)와 개인정보 오용(misuse of personal data) 등 심각한 우려(significant concerns)를 동시에 표명했다. 특히 생체인식(biometric) 기능과 관련해 주목할 점은, 응답자의 약 40%가 경찰의 AI 시스템 학습을 위한 개인 데이터 제공에 비협조적(would be unwilling)이었다는 것이다. 이에 비해 적극적으로 기여하겠다고 응답한 비율은 9.3%에 불과했다. 또한 많은 시민들은, 문제가 발생했을 때 경찰이 기술에 ‘책임(balance)’을 전가할 수 있다는 점을 우려했다. 이러한 결과는 얼굴인식기술(Facial Recognition Technology, FRT) 등 AI 기반 시스템(AI-enabled systems)의 활용과 밀접한 연관성을 갖는다. 조사에서는 또한 스코틀랜드(Scotland)와 북아일랜드(Northern Ireland) 등 지방 분권 지역(devolved areas) 간의 A에 대한 인식 차이(regional variations in attitudes)도 확인되었다. 그럼에도 불구하고, 공공장소 감시(public space surveillance)에 관한 규제는 여전히 데이터 보호(data protection) 중심의 영국 단일 프레임워크(UK-wide framework) 내에 머물러 있다.
또한 조사 결과, 경찰의 AI 사용에 대한 지지 수준은 맥락에 따라 달라진다(contextual)는 점이 드러났다. 즉, 일반 시민에게 위험이 낮은 상황일수록(trust and acceptance tending to be highest where deployment carries low risks) 신뢰(trust)와 수용도(acceptance)가 높았다. 이 점은 CCTV 시스템에 생체인식 기능을 결합(crossbreeding) 하려는 시도에서, ‘프랑켄슈타인 효과(Frankenstein effect)’를 초래하지 않도록 특히 주의해야 할 핵심 고려사항(critical consideration)이다. 운용 시나리오(operational scenarios) 측면에서 가장 높은 지지를 받은 사례는 아동 성 착취(child sexual exploitation) 및 테러리즘(terrorism) 범죄자의 신원 확인에 AI를 활용하는 것이었다. 이 두 분야는 이전에도 여러 차례 논의된 바 있는, 경찰의 얼굴인식 기술(FRT)을 위한 ‘이상적인 활용 사례(perfect use case)’로 꼽힌다. 반면, 지지가 가장 낮았던 분야는 긴급전화(999 emergency calls)와 같은 핵심 기능(core functions)의 자동화였다.
경찰이 AI를 사용해야 한다고 말한 사람은 누구일까? CENTRIC 설문에 참여한 영국 시민 10,114명 중 대다수가 그렇게 답했다. 하지만 그들 중 약 4분의 3(75%)은, 경찰이 AI를 사용하기 전에 반드시 의무적 책임 절차(mandatory accountability processes)가 마련되어야 한다고 주장했다 – 그러나 AIPAS의 법적 분석(legal analysis)에 따르면, 현재 그 제도는 부재하다. 또한 20% 미만의 응답자들만이 경찰의 AI 활용에 충분한 책임 구조(accountability)가 존재한다고 믿고 있었다. 이 두 가지 결과는 모두 명확한 책임성 프레임워크(accountability framework)의 필요성을 입증하며, AIPAS는 이를 충족하기 위해 원칙 기반 정책 검토 및 감사(audit)를 지원하는 소프트웨어 도구와 함께 그 해결책을 제시한다.
경찰의 AI 활용이 효과적이기 위해서는 기술(technology), 법(law), 그리고 사회적 기대(societal expectations)간의 균형이 필요하다. 영국 대법관 커 경(Lord Kerr)은 이렇게 말했다. “법적 제약이 충분하지 않은 권한은, 그것을 행사하는 자들이 자제한다고 해서 합법이 되는 것이 아니다. 권한의 잠재적 범위(potential reach)가 그 합법성(legality)을 판단하는 기준이 되어야 한다.” AI 기반 생체인식 권한(biometric power)의 잠재적 영향력은 경찰 분야에서 거의 무제한적(almost limitless)이다. 따라서 명확한 책임 구조(clear accountability)만이 그 권한을 사회적으로 수용 가능한 수준(publicly acceptable)으로 제한할 수 있는 유일한 방법이다.
저자 소개
프레이저 샘슨(Fraser Sampson)은 전 영국 생체인식 및 감시카메라 위원회 위원장으로, 현재 CENTRIC(테러·복원력·정보·조직범죄 연구센터, Centre of Excellence in Terrorism, Resilience, Intelligence & Organised Crime Research)의 거버넌스 및 국가 안보 교수(Professor of Governance and National Security)이며, 페이스워치(Facewatch)의 비상임 이사(Non-Executive Director)로 활동하고 있다.
