업계기사
메타, 소셜미디어 법 준수 약속… 반발 기조는 유지
호주식 모델을 참고한 입법을 영국이 검토하는 가운데, 실리콘밸리 거대 기업의 절박함이 엿보인다
작성자: Joel R. McConvey
보도일자: 2026년 1월 12일
출처: Biometricupdate.com
메타는 자사가 호주의 법을 충실히 준수하고 있다는 점을 알리고 싶어 한다. 이는 16세 미만 아동의 대형 소셜미디어 플랫폼 이용을 금지하는 논란의 사회관계망서비스(SNS) 관련 법률에 대한 자사의 준수 현황을 설명하는 새로운 업데이트를 통해 전달된 메시지다.
페이스북과 인스타그램의 모회사인 메타는 수치를 통해 입장을 설명한다. 메타는 “2025년 12월 11일 기준(호주 법 시행 다음 날)”으로, “16세 미만으로 판단되는 이용자 계정 약 55만 개의 접근을 차단했다”고 밝혔다. 이 중 33만 639개는 인스타그램 계정, 17만 3,497개는 페이스북 계정이었으며, 놀랍게도 3만 9,916개는 메타의 트위터 대항마인 ‘스레드(Threads)’를 사용하던 미성년자 계정이었다.
이번 업데이트는 “법의 지속적인 준수는 앞으로도 계속 정교화해 나갈 다층적인 과정이될 것”이라면서도, “산업 전반의 표준이 없는 상황에서 온라인 연령을 판단하는 방식에 대한 우려는 여전히 남아 있다”고 밝혔다.
또한 메타는 k-ID가 주도하고 FIDO 패스키를 기반으로 한 재사용 가능한 연령 확인 시스템인 ‘오픈에이지 이니셔티브(OpenAge Initiative)’에 참여하고 있다고 언급했다. 메타는 2026년부터 호주를 포함한 다른 시장에서도 오픈에이지의 ‘AgeKeys’를 자사 앱에 통합하기 시작할 계획이라고 밝혔다.
메타, 상충되는 논리를 앞세우다
메타 진영에서 드러나는 흐름은 조건부 수용(concede with reservations)에 가깝다. 즉, 법을 준수하되 연령 확인을 개별 플랫폼이 아닌 앱스토어 차원에서 구현해야 한다는 정책적 주장을 계속 밀어붙이는 전략이다. 이 방식에서는 구글, 애플 등 앱스토어 운영사가 연령 보증(age assurance)을 담당하고, 개별 플랫폼의 책임은 줄어든다.
메타는 미국에서는 수정헌법 제1조(표현의 자유)를 근거로 소셜미디어 규제에 반대하고 있지만, 호주에서는 규모와 이용 행태를 중심으로 논리를 전개하고 있다. 메타는 “미국의 연구에 따르면 청소년들은 주당 40개 이상의 앱을 사용하며, 이들 중 상당수는 안전을 우선하지 않거나 새로운 연령 확인 방식을 도입하지 않거나, 호주의 소셜미디어 금지 법 적용 대상조차 아닐 수 있다”며, “따라서 더 나은 해법은 앱스토어 단계에서의 연령 확인과 부모 동의라고 여전히 믿는다”고 주장했다.
이 접근법은 사실상 성인물 업계(Big Porn)가 연령 확인 규제에 맞서 사용해온 논리와 동일하다. 일부 사이트는 규제를 따르지 않을 것이므로 특정 사이트에만 의무를 부과하는 것은 불공정하며, 대신 모든 앱 사용 전에 기기 차원에서 연령을 확인하도록 해 문제의 책임을 플랫폼이 아닌 디바이스 레벨에 두어야 한다는 주장이다.
실리콘밸리의 이 거대 기업은 “전문가, 청소년 단체, 그리고 많은 부모들로부터 제기됐다”고 주장하는 우려 사항 목록을 내세워 자신의 논리를 강화하고 있다. 메타에 따르면 연령 확인은 취약한 청소년들이 온라인 커뮤니티를 통해 도움을 받을 기회를 차단하고, 이들을 “규제가 덜 된 앱이나 인터넷의 다른 영역”으로 내몬다는 것이다. 또한 연령 확인은 특히 경계 연령대에서 항상 효과적으로 작동하지 않으며, 청소년과 부모들 사이에서 규제 준수에 대한 관심이 크지 않다고 주장한다.
그러나 이러한 주장은 적어도 메타가 제기할 경우 쉽게 반박될 수 있다. 메타가 정말로 취약한 청소년을 걱정했다면, 자사 플랫폼이 지속적으로 만들어내는 해악을 외면하지 않았을 것이다. 성인물과는 달리, 호주의 법 적용을 받지 않는 신뢰할 만한 ‘대체 앱’은 페이스북이나 인스타그램을 대신할 수 없다. 소셜 플랫폼의 본질은 규모와 도달 범위에 있으며, 새로운 형식을 성공적으로 정착시키는 일은 쉽지 않다. 최근 대중적 확산에 성공한 사례는 2026년에 10주년을 맞는 틱톡이 유일하다.
연령 보증(age assurance) 산업 자체도 해당 기술과 활용 방식이 아직 발전 과정에 있다는 점을 가장 크게 인정해 온 주체 중 하나다. 마지막으로, 만약 플랫폼 차원의 연령 확인에 대해 청소년과 부모의 관심이 “거의 없다”면, 연령 확인을 기술 스택의 다른 단계로 옮긴다고 해서 그 관심이 높아질 것이라는 근거 역시 없다.
자기 이익이 규제 회피 움직임을 이끈다
메타는 방어 논리를 마무리하며, “16세 미만 아동이 소셜미디어 계정을 보유하지 못하도록 해 ‘알고리즘적 경험’에 노출되지 않게 한다는 법의 전제 자체가 잘못됐다”고 주장한다. 메타는 이용자가 로그인하지 않은 상태에서도 알고리즘은 작동하며, 다만 개인화 수준이 낮을 뿐이라고 설명한다.
결국 마크 저커버그가 이끄는 수십억 달러 규모의 이 기업은 법적 준수 의무를 이행하겠다는 입장을 밝히면서도, “더 나은 해법을 찾기 위해 호주 정부가 산업과 건설적으로 협력해 줄 것을 계속 요청하겠다”고 덧붙였다.
메타에게 있어 ‘더 나은 해법’이란 결국 자사 이익에 부합하는 방식으로 귀결된다. 청소년에게 유해한 콘텐츠를 확산시켰다는 비판을 받아왔고, 그 위험성을 인지하고도 방치했다는 의혹을 받는 소셜미디어 기업이, 자사 운영에 대한 어떤 규제도 오히려 청소년에게 해가 된다고 주장하는 것은 공허한 논리다.
최근 X(옛 트위터)가 아동 성착취 콘텐츠(CSAM) 문제로 논란을 겪고 있는 상황을 고려하면, 메타는 스스로를 ‘말 잘 듣는 모범 플랫폼’으로 대비시키려는 불쾌한 기회를 엿보고 있을지도 모른다. 그러나 미성년자의 서비스 이용 차단에 대한 1차적 법적 책임을 스스로 떠안는 시나리오에 메타가 쉽게 동의할 것이라고 보기는 어렵다.
영국, 16세 미만 이용 제한 법안 검토… AVPA는 긍정적 반응
메타에게는 안타깝게도 흐름은 메타에 유리하지 않다. 영국에서는 X의 챗봇 그록(Grok)이 여성과 아동을 성적으로 묘사한 이미지를 대량 생성했다는 논란이 커지면서, 호주와 유사한 소셜미디어 법을 도입해야 한다는 요구에 다시 불이 붙었다. 영국 보수당은 호주의 사례를 따르겠다는 입장을 밝혔다.
정부는 16세 미만 이용자를 대상으로 한 대형 소셜 플랫폼의 ‘전면적 금지(blanket ban)’ 계획은 없다고 선을 긋고 있다. 그러나 가디언(The Guardian) 보도에 따르면, 정부는 페이스북, 인스타그램, 킥(Kick), 레딧(Reddit), 스냅챗, 스레드(Threads), 틱톡, X, 유튜브, 트위치 등에서 아동의 계정 생성 차단을 위한 조치가 미치는 영향을 면밀히 주시하고 있다고 전했다.
한편, 주요 교원노조인 NASUWT는 영국이 호주식 입법을 채택해야 한다고 촉구했으며, 이에 대한 지지는 영국 정치권 전반으로 확산되고 있다.
연령 확인 제공업체 협회(AVPA)는 영국이 호주식 법제 방향으로 나아가는 데 찬성 입장을 보이고 있다. AVPA는 링크드인을 통해, “2025년 12월 10일 호주 규정 시행 이후 회원사들의 경험과 전문가적 판단을 바탕으로, 공식적인 ‘교훈 정리(lessons-learned)’ 보고서를 준비하고 있다”고 밝혔다.
해당 게시물은 AVPA가 제시할 주요 논점 몇 가지를 강조한다. 첫 번째로, 메타가 자신들이 법 준수를 위해 할 수 있는 모든 것을 하고 있다는 주장을 정면으로 반박한다. AVPA는 “연령 제한이 ‘너무 쉽게 우회된다’는 주장은 대부분 기술적 한계가 아니라 플랫폼의 구현 방식 선택을 반영한 것”이라며, “소셜미디어 플랫폼들은 연령 기반 접근 규칙에 반대해 왔고, 연령 확인을 마지못해 적용하고 있다”고 지적했다.
또한 AVPA는 “일부 사례에서는 사진이나 아바타 사용을 막기 위한 라이브니스(liveness) 감지와 같은 이미 잘 확립된 보호 장치조차 도입하지 않았고, 연령 추정 도구가 법적 기준 연령보다 몇 살 위에서 테스트되도록 하는 ‘버퍼 연령(buffer age)’을 적용해 오탐(false positive)을 줄이는 방식도 채택하지 않았다”고 덧붙였다.
더 나아가 AVPA는 VPN 사용이 실제로는 큰 문제가 되지 않는 것으로 입증됐다고 밝혔다. 시행 초기에는 사용량이 일시적으로 급증했지만, 곧 정체 국면에 접어들었다는 설명이다.
마지막으로 AVPA는, 아직 시행된 지 한 달밖에 지나지 않았으며, 정부의 단계적 시행(phased rollout) 또한 아직 완료되지 않았다는 점을 강조했다.
AVPA는 “호주의 제도는 여전히 안착 과정에 있다”며, “중요한 질문은 첫날부터 완벽했느냐가 아니라, 이 규제 프레임워크가 반복적 개선, 증거 기반 조정, 그리고 아동을 위한 실질적인 보호를 가능하게 하느냐”라고 밝혔다.
호주, 그록(Grok) 딥페이크 문제로 고심
아동 성착취물 문제로 인해 각국이 X(구 트위터)를 금지하기 시작했으며, 말레이시아와 인도네시아는 오늘부로 금지 조치를 발표했다. 영국의 규제기관 오프콤(Ofcom) 역시 이러한 가능성을 언급했으며, 호주도 같은 방향을 검토 중이다. 호주 eSafety 위원회의 보도 자료에 따르면, 이 사안의 핵심 질문은 사실상 “얼마나 많은 아동 착취가 용인될 수 있는가?”로 보인다.
eSafety는 성명을 통해 “eSafety가 접수한 신고 건수 자체는 아직 많지 않지만, 최근 몇 주 사이 거의 없던 수준에서 여러 건으로 증가했으며, 이는 그록(Grok)을 이용해 성적으로 노골적이거나 착취적인 이미지를 생성한 사례와 관련돼 있다”고 밝혔다. 이어 “관련 자료가 온라인 안전법(Online Safety Act)에 규정된 기준을 충족하는 경우, 삭제 명령을 포함한 법적 권한을 적절히 행사할 것”이라고 덧붙였다.
다만 보다 강력한 법적 수단을 기다리고 있는 상황일 수도 있다. 해당 성명은 “2026년 3월 9일부터 추가적인 의무적 규범(mandatory codes)이 시행될 예정이며, 이는 AI 서비스를 포함한 여러 주체에게 아동의 성적 콘텐츠 접근을 제한할 의무, 그리고 폭력적 콘텐츠 및 자해·자살 관련 주제에 대한 접근 제한 의무를 새롭게 부과하게 될 것”이라고 설명했다.
