영국 정부, 기술 기업 경고로 AI 범죄 규제 강화
일상 속 인터넷과 인공지능(AI)이 우리 삶에 필수적인 도구로 자리 잡은 가운데, 이 기술의 발전이 가져온 어두운 면과 이에 대응하려는 노력들이 주목받고 있습니다. 특히, 최근 영국 정부가 AI를 악용한 온라인 성범죄 단속에 나서며 기술의 책임과 윤리성에 대한 논쟁을 다시금 불러일으켰습니다. 이와 같은 조치는 한국을 포함한 전 세계적으로 중요한 시사점을 가지며, 기술 발전의 속도에 맞춘 규제와 책임 강화의 필요성을 일깨우고 있습니다.
영국 정부는 여성과 소녀들을 대상으로 한 온라인 폭력 및 학대 방지를 위해 강력한 조치를 취하고 있습니다. 2026년 3월 10일, 리즈 켄달(Liz Kendall) 기술부 장관은 주요 기술 기업들과의 원탁회의를 통해 소셜 미디어 및 플랫폼들이 빠르게 안전 조치를 확대할 것을 요구했습니다. 주요 기업으로는 스냅챗, 메타(페이스북과 인스타그램 모회사), 유튜브, 틱톡 등이 포함되며, 이들은 이미 광범위한 사용자 기반을 가진 회사들로, 플랫폼에서 발생하는 피해를 줄이기 위한 책임을 강조받고 있습니다.
광고
켄달 장관은 이들 기업에 '필요 이상의 조치(go further)'를 취할 것을 촉구하며, 안전 조치를 더욱 빠르고 광범위하게 구현해야 한다고 강조했습니다. 영국의 온라인 안전법(Online Safety Act)에 따르면, 비동의 친밀한 이미지 공유 및 사이버 플래싱과 같은 학대 행위를 아동 학대 및 테러와 같은 우선 범죄로 지정하고 있습니다.
지난 6개월간 영국 정부는 이러한 온라인 학대 행위들을 우선 범죄로 분류하여, 플랫폼들이 이를 아동 학대나 테러와 동일한 수준으로 심각하게 다루도록 의무화했습니다. 이는 온라인 공간에서 발생하는 성범죄를 오프라인 범죄와 동등하게 취급하겠다는 정부의 의지를 보여주는 조치입니다. 특히, 이번 규제에는 피해자의 부담을 줄이는 내용이 포함되었습니다.
신고된 비동의 친밀 이미지는 플랫폼이 48시간 이내에 삭제해야 하며, '누디피케이션 앱'이라 불리는 AI 기술을 이용한 성적 이미지 합성도 범죄로 간주됩니다. 이는 피해자가 자신의 이미지를 직접 삭제하거나 대응해야 했던 기존 방식에서, 플랫폼 자체의 책임을 강조하는 방향으로의 중대한 변화입니다.
광고
정부는 새로운 법적 요건을 통해 삭제의 책임을 피해자가 아닌 플랫폼에 전가함으로써, 피해자들이 겪는 2차 피해를 최소화하려는 노력을 기울이고 있습니다. 이번 달에는 '범죄 및 치안법(Crime and Policing Bill)' 개정을 통해 이른바 '누디피케이션 앱(nudification apps)', 즉 AI를 사용하여 여성과 소녀들의 성적인 합성 이미지를 생성하는 도구를 범죄로 규정하는 새로운 법규를 마련했습니다.
이 법안은 AI 기술을 악용하여 개인의 사진을 성적으로 조작하는 행위를 명시적으로 불법화함으로써, 기술 발전에 따른 새로운 형태의 범죄에 선제적으로 대응하겠다는 입법적 의지를 보여줍니다. 이러한 노력은 기술의 발전이 피해를 야기하는 것에 그치지 않고, 그에 맞춰 법과 제도가 피해를 방지하도록 개선해야 한다는 데 초점을 맞추고 있습니다. 리즈 켄달 기술부 장관은 "플랫폼들이 지속적으로 충분한 조치를 시행하지 않고 있다면, 이들은 순진한 방관자(innocent bystanders)가 아니라 학대를 조장하는 공범(enablers of abuse)으로 간주될 것입니다"라며 기술 기업에 대한 강력한 경고를 보냈습니다.
광고
또한, 영국 통신 규제 기관인 Ofcom에 기업들의 규정 준수 여부를 신속히 보고하게 함으로써 정부의 책임성을 명확히 하겠다는 의지를 밝혔습니다. 켄달 장관은 "책임성과 안전은 함께 간다(accountability and safety go hand in hand)"고 강조하며, 기업들이 단순히 기술적 측면에서 성공을 거두는 것뿐 아니라, 사회적 책임과 윤리적 귀감도 되어야 한다는 메시지를 전달했습니다.
AI 기술의 그림자: 누디피케이션 앱이 야기한 논란
영국 정부는 온라인 안전 강화를 위한 노력을 성인뿐만 아니라 아동 보호 영역으로도 확대하고 있습니다. 정부는 아동의 디지털 웰빙(digital wellbeing)에 대한 공개 협의를 시작하여 소셜 미디어의 최저 연령 제한, 디지털 동의 연령 상향, 특정 기능 제한(예: 라이브 스트리밍, 사라지는 메시지), AI 챗봇 및 생성형 AI 서비스에 대한 새로운 의무 등 광범위한 잠재적 조치에 대한 의견을 수렴하고 있습니다.
광고
이러한 협의는 아동과 청소년이 디지털 환경에서 안전하게 성장할 수 있도록 보호 장치를 마련하려는 정부의 종합적인 접근을 보여줍니다. 소셜 미디어 최저 연령 제한은 특히 논란의 여지가 있는 부분으로, 아동의 발달 단계에 맞는 적절한 디지털 접근 시기에 대한 사회적 합의를 도출하려는 시도입니다.
디지털 동의 연령 상향 조치는 아동이 자신의 개인정보를 스스로 관리할 수 있는 법적 능력을 갖추는 연령을 높이려는 것으로, 아동의 프라이버시를 더욱 강력하게 보호하려는 목적을 갖고 있습니다. 또한 라이브 스트리밍이나 사라지는 메시지 같은 특정 기능에 대한 제한은 아동이 충동적으로 위험한 콘텐츠를 공유하거나 노출되는 것을 방지하기 위한 조치입니다.
AI 챗봇 및 생성형 AI 서비스에 대한 새로운 의무 부과는 특히 주목할 만합니다.
광고
최근 AI 기술이 급속도로 발전하면서 아동이 AI 챗봇과 상호작용하거나 생성형 AI를 통해 부적절한 콘텐츠에 노출될 위험이 증가하고 있습니다. 영국 정부는 이러한 새로운 기술 영역에도 안전 기준을 적용하여, 아동이 AI 기반 서비스를 사용할 때에도 적절한 보호를 받을 수 있도록 하려는 선제적 규제를 검토하고 있습니다. AI 기술을 악용한 온라인 성범죄와의 싸움은 기술의 신뢰성을 회복하기 위한 노력의 일환으로 볼 수 있습니다.
'누디피케이션 앱'은 AI를 이용해 합성적 이미지 생성이나 사진 조작을 손쉽게 수행할 수 있어, 개인의 프라이버시를 침해하고 피해자 입장에서 심각한 트라우마를 유발할 수 있습니다. 이러한 기술의 윤리적 문제는 최근 몇 년간 급격히 증가한 AI 활용의 사례와 연결지어 생각해 볼 필요가 있습니다.
대표적인 예로, 최근 한국에서도 딥페이크(Deepfake) 기술을 활용한 범죄가 사회적 이슈로 떠오른 바 있습니다. 이는 피해자의 동의 여부를 무시한 채 기술을 남용하는 사례로, 피해가 국내에서도 확대되고 있다는 점을 시사합니다.
영국의 이러한 규제 조치는 기술의 발전이 사회에 미치는 긍정적 효과에 비례해 부작용을 줄이고 책임을 입증해야 한다는 점을 강조합니다. 기술 기업들이 혁신을 추구하는 동시에 사용자 안전을 최우선으로 고려해야 한다는 원칙은 점점 더 많은 국가에서 받아들여지고 있습니다. 플랫폼들은 더 이상 단순한 기술 제공자로서의 역할에 머무를 수 없으며, 자신들의 서비스가 사회에 미치는 영향에 대해 적극적으로 책임져야 하는 시대가 도래했습니다.
일부에서는 이러한 강력한 규제가 기술 발전을 저해하거나, 혁신을 억압하는 부작용을 초래할 가능성에 대해 우려하고 있습니다. 특히 스타트업이나 중소 기술 기업들에게는 규제 준수를 위한 비용이 상당한 부담으로 작용할 수 있다는 지적도 제기됩니다.
그러나 안전 규제는 단기적으로 개발 비용을 증가시킬 수 있지만, 장기적으로는 더 안정되고 신뢰받는 플랫폼을 만들어 기술 기업의 지속가능성을 높이는 결과를 낳을 것이라는 전망도 있습니다. 규제와 혁신 사이의 균형을 찾는 것이 앞으로의 중요한 과제가 될 것입니다.
한국은 어떻게 대응하고 있을까: 정책 및 사회적 영향 분석
한국 또한 AI 기술 악용과 관련해 벗어날 수 없으며, 이에 대한 적극적인 대응이 요구되고 있습니다. 특히, 인공지능 기반 악성 콘텐츠 및 프라이버시 침해 사례가 증가하면서 정부와 기업이 긴밀히 협력해 안전한 디지털 환경을 구축할 필요성이 높아지고 있습니다. 한국에서는 정보통신망법 및 개인정보 보호법과 같은 법률을 통해 디지털 안전을 강화하려는 노력이 이루어졌지만, 기술의 변화 속도에 비해 법적 대응이 미비하다는 지적이 계속되고 있습니다.
영국의 사례는 한국이 AI 시대에 맞는 법제도를 정비하는 데 중요한 참조점이 될 수 있습니다. 그렇다면 이러한 문제는 어떻게 해결할 수 있을까요?
기술 기업들은 자체적으로 학대 행위를 감지하고, 이를 즉각적으로 차단할 수 있는 시스템을 구축해야 합니다. 또한, 사용자와 기관이 손쉽게 신고할 수 있는 체계를 강화해야 하며, 정부는 보다 명확한 규제를 제정하여 피해자가 체감할 수 있는 변화를 만들어야 합니다. 플랫폼들은 AI 기반 콘텐츠 모더레이션 기술을 활용하여 유해 콘텐츠를 사전에 탐지하고 차단하는 능력을 지속적으로 향상시켜야 합니다.
동시에 투명한 신고 및 처리 절차를 마련하여 피해자들이 신속하고 효과적인 구제를 받을 수 있도록 해야 합니다. 정부 차원에서는 규제의 명확성과 집행력을 동시에 확보해야 합니다. 영국의 사례처럼 구체적인 시간 제한(48시간 이내 삭제)과 명확한 책임 소재(플랫폼의 의무)를 법률에 명시함으로써, 기업들이 준수해야 할 기준을 분명히 하고 이행 여부를 객관적으로 평가할 수 있어야 합니다.
또한 규제 기관의 감독 능력을 강화하여 기업들의 실제 이행 상황을 모니터링하고, 위반 시 실효성 있는 제재를 가할 수 있는 체계를 구축해야 합니다. 한국 사회에서 영국의 사례를 본보기로 삼아야 할 필요성이 크며, 특히 아동 디지털 웰빙에 대한 종합적인 접근은 국내 정책 발전에 중요한 참조점이 될 것입니다.
영국이 소셜 미디어 최저 연령, AI 챗봇 규제 등 다양한 영역을 포괄하는 공개 협의를 진행하는 것처럼, 한국도 다양한 이해관계자들의 의견을 수렴하여 균형 잡힌 정책을 수립할 필요가 있습니다. 특히 기술 발전 속도가 빠른 만큼, 정책과 법규도 유연하게 업데이트될 수 있는 체계를 마련해야 합니다.
최종적으로 우리는 기술이 인간을 위협하거나 착취하는 도구가 아닌, 삶을 풍요롭게 만들도록 하는 방향으로 발전해야 한다는 점을 잊어서는 안 됩니다. AI 기술의 윤리적 사용은 단순히 규제와 처벌의 문제가 아니라, 사회 전체가 협력해야 할 과제입니다.
기술 기업, 정부, 시민사회, 그리고 개별 사용자 모두가 각자의 역할을 인식하고 책임감 있게 행동할 때, 비로소 안전하고 건강한 디지털 환경을 만들 수 있습니다. 여러분은 이에 대해 어떻게 생각하시나요?
AI와 디지털의 발전 속에서 사람들의 권리가 침해되는 것을 막기 위해 우리는 어떤 행동을 취할 수 있을까요? 기술의 혜택을 누리면서도 그 어두운 면을 효과적으로 통제하기 위해서는 지속적인 관심과 참여가 필요합니다.
김도현 기자
광고
[참고자료]
vertexaisearch.cloud.google.com










