업계기사
AI의 새해 결심 – 모든 책임을 봇에게 떠넘기지 말자
프레이저 샘프슨 교수(전 영국 생체인식·감시카메라 커미셔너) 작성
작성자: Fraser Sampson
보도일자: 2026년 1월 16일
출처: Biometricupdate.com
옛말에 따르면, 도구를 탓하는 것은 서툰 일꾼의 징표라고 한다. AI는 우리가 지금까지 사용해 온 어떤 도구와도 전혀 다르지만, 형사사법 시스템에서 드러나는 여러 증거를 보면 우리는 당분간 계속해서 AI를 탓하게 될 것 같다.
비난은 복잡성에 대한 게으른 반응이며, 문제의 원인이 되는 대상을 이해하지 못할 때 거의 반사적으로 나타난다. 마녀사냥은 공적 실패 이후에도 여전히 사용되는 용어이자 전략이다. 흉작에서부터 신체적 질병에 이르기까지 모든 책임을 누군가에게 전가하며(대개 가난하고, 종종 나이가 많은 여성들에게) 박해해 온 오랜 전통에서 발전한 이 행위, 즉 대리적 죄인을 찾아내는 행태는 인간의 유산의 일부다. 심지어 극단적인 기상 현상에 이름을 붙이는 우리의 방식조차도 어딘가 이와 같은 뿌리를 지닌 듯하다.
이제 우리는 새로운 도구들이 사용자와 무관하게 스스로 잘못을 저지를 수 있다는 데 이미 동의한 상태다. 그와 함께 ‘기술 탓’의 새로운 시대로 접어들고 있다. 처음으로, 사용자의 개입 없이도 도구 자체가 유죄가 될 수 있게 되었고, 그런 일이 벌어질 때 우리 모두를 면책해 주는 편리한 판결까지 만들어 냈다. 인공지능(AI)의 오작동 원인으로 점점 더 자주 지목되는 것이 바로 ‘환각(hallucinations)’이며, 나는 우리가 이 ‘H 단어’를 앞으로 많이 듣게 될 것이라 본다. 그럴 때마다 우리는 집단적 죄를 무고한 피조물에게 떠넘기던 훨씬 오래된 개념을 잠시 떠올려 볼 필요가 있다. 자기 지시형 기술은 도구를 탓하려는 사람들에게는 신의 선물과도 같으며, 우리는 AI가 희생양으로 몰리는 모습을 경계하며 지켜봐야 할 것이다.
경찰, 법원, 보호관찰 기관, 교정시설은 다른 어떤 분야 못지않게 광범위하게 AI를 활용할 필요가 있으며, 이미 더 앞서 나간 상업 부문으로부터 배울 점이 많다. 기업 리더들은 새로운 기술을 도입하는 데 있어 ‘가장 어려운 부분’이 고객의 신뢰를 얻는 일이라는 사실을 발견해 왔다. 형사사법 환경에서는 이 일이 훨씬 더 설득하기 어려울 것이다. 경찰 기술에 대한 신뢰와 확신을 심어주려 할 때는 외관과 인식이 중요하며, 실시간 안면인식 기술을 둘러싼 초기 실험이 경찰 활동을 수년간 후퇴시켰다는 사실을 우리는 알고 있다. 경찰은 그 신뢰를 회복해 가고 있고, 영국에서는 대체로 경찰의 합법적인 AI 활용을 지지하는 분위기다. 그러나 여론조사에 따르면 여전히 널리 공유되는 우려가 존재한다. 그중 하나는 문제가 발생했을 때 경찰이 기술에 책임을 전가하려 할 것이라는 걱정이다.
이런 배경에서 지난해 웨스트미들랜즈 경찰이 마카비 텔아비브 축구 경기에서 원정 팬의 입장을 금지하기로 한 결정은 흥미롭다. 논란이 된 그 결정에 이르기까지 경찰은 공개 출처 정보(OSINT)에 대한 ‘인터넷 스크래핑’에 의존한 것으로 전해졌는데, 그 결과 텔아비브팀과 또 다른 잉글랜드 클럽(웨스트햄) 간의 과거 경시 세부 정보가 제시되었다. 날짜는 물론 최종 스코어까지 인용되었다. 그러나 그런 경기는 실제로 존재한 적이 없다. 이 ‘일어나지 않은’ 사건이 의회에 제출된 증거에 포함되었다는 사실은 경찰로서 전문적으로 매우 난처한 일이다. 하지만 여기서의 핵심 위험은 그들이 봇에게 책임을 떠넘겼느냐가 아니라, 그렇게 보였을 수 있다는 점이다. 바로 이것이 설문 응답자들이 두려워하는 바다.
형사사법 분야에서 AI를 사용할 때 우리는 신뢰성과 편향 같은 명백한 문제들뿐 아니라, 신뢰와 확신에 영향을 미치는 몇 가지 기본 개념에도 각별히 주의해야 한다. 예컨대 시스템을 직접 구축하든 구매하든, 그것이 어느 정도 ‘자율성’을 갖고 있더라도 설계상의 결함과 한계에 대한 책임은 우리가 져야 한다. AI 이전의 사례를 들자면, 대량 삭제 기능이 없는 경찰 데이터베이스를 만들어 놓고 나중에 수백만 장의 이미지를 불법적으로 보관한 데 대한 변명으로 그 누락을 들 수는 없다. 그렇게 하는 것은 변명처럼 들릴 뿐이다. 경찰 AI에 대한 책임성은 조달 이전 단계, 즉 초기 단계에서부터 시작되며, AI 도구의 상시 베타 상태는 새로운 도전을 가져올 것이다. 확산과 자기 논증은 AI 잠재력의 일부이며, 기존 기술 프로젝트에서 ‘기능 확장(function creep)’으로 인식되고 경계되던 현상은 이제 정당하게 내재적 요소가 될 것이다. 이에 적응하는 일은 법 집행 분야를 포함해 전반에서 ‘가능한 것, 허용되는 것, 받아들일 수 있는 것’ 사이의 자이로스코프 같은 균형 감각을 요구하게 될 것이다.
사법 시스템에서는 ‘행정 지원’이라는 초보적 수준의 AI 활용조차도 각별한 경계를 필요로 한다. 법원 판결문과 같은 공적 기록의 초안 작성을 지원하는 데 AI를 사용하는 일은 흔해질 것이며, 현재 진행 중인 스코틀랜드의 한 고용법 사건은 대규모 언어 모델(LLM) 도구가 부정확성 문제로 얼마나 빠르게 피고석에 오를 수 있는지를 잘 보여주고 있다.
AI 도구의 대중적 접근 가능성은 기존의 업무 방식 또한 바꾸고 있다. 세계 최대의 회계 전문 기구는 AI를 이용한 부정행위를 적발하기가 지나치게 어렵다는 이유로 온라인 시험을 전면 폐지했다. 그 결과 “개가 숙제를 먹어버렸다”는 오래된 변명은 “봇이 내 숙제를 했다”로 대체되었다. 형사사법 환경에서는 이미 어느 정도 책임 전가가 개입되는 증거 제시와 검증 과정에 있어, 이는 중대한 도전 과제를 던진다.
기술이 아무리 발전하더라도, 작동하는 인간의 몇몇 본질적 동인과 불완전성은 변하지 않은 듯하다. 두려움, 수치심, 혹은 단순한 허영심은 여전히 공공 프로젝트에서 책임을 투사하고 회피하도록 만든다. 그런 일이 벌어질 때 AI 도구는 거의 거부할 수 없는 희생양으로 등장한다.
형사사법 시스템은 원래부터 책임이 있어서는 안 될 곳에 책임을 전가해 온 역사를 낯설지 않게 갖고 있다. DNA 프로파일링과 같은 생체인식 기술의 가장 큰 공헌 중 하나는 잘못된 결론에 이를 가능성을 크게 줄였다는 점이다. 그러나 법 집행과 같은 핵심 공공 서버스의 일부 의사결정을 AI에 맡기게 되면서, 구식 공개 망신대가 다시 등장할지도 모르며, 로봇은 족쇄에 묶인 채 비난의 대상이 될 수 있다.
따라서 디지털 신뢰를 되새기고 이미 격동적인 2026년의 전망을 숙고하며, 나는 법 집행 기관이 하나의 결심을 세우고 지키기를 제안한다. 올해 생체인식 기술로 무엇을 하든 간에, 봇을 탓하지 말라.
저자 소개
프레이저 샘프슨은 전 영국 생체인식·감시카메라 커미셔너로, 현재 CENTRIC(테러리즘·회복탄력성·정보·조직범죄 연구 우수센터)의 거버넌스 및 국가안보 교수이며, Facewatch의 비상임 이사로 활동하고 있다.
