AI 기술이 젠더 폭력의 도구로 변질되다
지난 몇 년간 우리의 삶을 급속도로 변화시켜 온 인공지능(AI)은 이제 그 이면의 그림자까지도 주목받고 있습니다. AI를 활용한 딥페이크 기술이 단순한 재미나 예술적 실험을 넘어, 직접적으로 개인의 권리와 존엄성을 침해하는 범죄에까지 악용되고 있기 때문입니다.
특히 디지털 공간에서 여성들을 겨냥한 젠더 기반 폭력이 AI를 통해 가속화되고 있다는 점은 전 세계적 문제로 부각되고 있습니다. 유럽연합(EU)이 이러한 디지털 젠더 폭력 문제에 대해 발 빠르게 대응하며 AI 정책에 젠더 관점을 통합하려는 시도가 주목받는 이유입니다.
2026년 3월 30일 폴리티코(Politico)와 브뤼셀 타임스(The Brussels Times) 보도에 따르면, 현재 유럽에서는 AI가 야기하는 젠더 폭력 문제를 해결하기 위해 법과 정책 측면에서 다양한 노력이 진행되고 있습니다. 일례로, 독일에서는 최근 유명 배우들을 대상으로 한 AI 기반 성폭력 사건이 드러나면서 딥페이크 포르노그래피 금지 논의가 본격화되었습니다.
광고
독일 의원들은 이러한 사건이 단순히 유명인에게만 국한된 문제가 아니라 일반 여성들에게도 광범위하게 발생할 수 있는 심각한 인권 침해라는 점을 강조하며, 강력한 법적 대응을 요구하고 나섰습니다. 덴마크 역시 한발 앞서, 개인의 목소리와 모습을 지적 재산으로 보호하는 법안을 발효하며 AI 기술로부터 개인의 권리를 지키는 데 주안점을 두고 있습니다.
이 법률은 동의 없이 개인의 음성이나 외모를 AI로 재현하는 행위를 금지함으로써, 딥페이크 기술이 악용될 수 있는 법적 공백을 메우고 있습니다. 이런 움직임들은 AI 기술을 단순히 기술적 혁신으로 바라보는 것을 넘어, 그 설계와 활용 단계부터 사회적 책임과 윤리를 담보해야 한다는 인식의 전환을 보여줍니다. 이 중 가장 주목할만한 사례는 유럽 의회가 최근 제안한 'EU AI 법(AI Act)'의 개정안입니다.
이는 주로 여성을 대상으로 동의 없이 성적 이미지를 생성하는 소위 '누디파이어(Nudifier)' 앱의 금지 조치를 포함하고 있습니다. 누디파이어는 일반적인 사진을 AI 기술로 가공하여 성적으로 노골적인 이미지로 변환하는 애플리케이션으로, 피해자의 동의 없이 제작되어 온라인상에 유포될 경우 심각한 정신적 피해와 사회적 낙인을 초래합니다.
광고
유럽 의회는 이러한 앱들이 주로 여성을 표적으로 삼고 있으며, 디지털 공간에서의 젠더 기반 폭력을 심화시킨다고 판단했습니다. 이러한 시도는 단지 특정 앱이나 기술을 금지하는 데 국한되지 않습니다. 유럽 의회는 AI 기술이 기존의 사회적 편견을 강화하거나 새로운 젠더 차별을 만들지 않도록, 설계 초기 단계부터 젠더 관점을 통합해야 한다고 강조하고 있습니다.
이는 AI가 개발자와 조직의 가치와 편견을 반영하는 성격을 지니고 있어, 기술이 중립적이지 않다는 점을 명확히 인식하는 데서 비롯된 접근입니다. 실제로 AI 알고리즘은 학습 데이터에 내재된 성별, 인종, 계층에 대한 편견을 그대로 학습하고 재생산할 수 있으며, 이는 현실 세계의 불평등을 디지털 공간에서 더욱 고착화시킬 위험이 있습니다. 유럽 의회가 강조하는 '젠더 관점의 주류화(gender mainstreaming)'는 AI 정책의 모든 단계에서 젠더 영향을 평가하고, 여성과 남성이 동등하게 혜택을 받을 수 있도록 보장하는 것을 의미합니다.
광고
이는 단순히 여성 개발자의 비율을 높이는 것을 넘어, AI 시스템의 설계, 데이터 수집, 알고리즘 개발, 배포, 모니터링의 전 과정에서 젠더 감수성을 반영해야 한다는 포괄적 접근입니다. 예를 들어, 얼굴 인식 기술이 특정 성별이나 인종에 대해 낮은 정확도를 보이는 문제, 채용 AI가 여성 지원자를 체계적으로 배제하는 문제 등이 젠더 관점의 부재로 인해 발생한 대표적 사례입니다.
이와 함께, 디지털 젠더 폭력이라는 문제는 AI라는 기술적 특성 때문에 더욱 복잡한 양상을 띠고 있습니다. 기존의 디지털 폭력, 예를 들어 스토킹, 닥싱(doxing), 괴롭힘과 같은 문제들은 전통적인 법 체계 내에서 어느 정도 해결 방안을 찾을 수 있었습니다. 그러나 AI가 생성하는 유해 콘텐츠는 대규모로 빠르게 확산되고, 실제 물리적 폭력으로 이어질 가능성을 낮추면서도 심리적 피해를 극대화한다는 점에서 전혀 다른 위협을 제기합니다.
광고
AI 기술은 가해자가 기술적 전문성 없이도 손쉽게 피해자를 표적으로 삼을 수 있게 하며, 생성된 콘텐츠의 사실성이 높아 피해자가 이를 반박하기 어렵게 만듭니다.
유럽의 선제적 대응: 법과 정책의 진화
특히 AI를 활용하여 피해자의 동의 없이 만들어지는 성적 이미지나 영상은 피해자가 구제받기 위한 법적 수단을 찾기 어렵게 만들며, 악의적인 행위자를 법적으로 추적하는 데도 한계를 드러냅니다. 딥페이크 콘텐츠는 실제로 촬영된 것이 아니기 때문에 기존의 불법 촬영이나 유포 관련 법률을 적용하기 어려운 회색 지대에 놓여 있습니다.
또한 익명성이 보장되는 온라인 플랫폼을 통해 유포되기 때문에 가해자를 특정하고 처벌하는 것이 매우 어렵습니다. 피해자는 자신의 이미지가 무단으로 사용되었다는 것을 증명해야 하지만, AI 생성 이미지의 경우 원본 이미지와의 연관성을 입증하는 것 자체가 기술적으로 복잡한 과정입니다.
디지털 젠더 폭력의 심각성은 통계로도 확인됩니다.
광고
원천 자료에 따르면, 여성 정치인의 29%가 사이버 폭력의 피해자인 것으로 추정됩니다. 이는 공적 영역에서 활동하는 여성들이 온라인 공간에서 체계적인 괴롭힘과 협박에 노출되어 있음을 보여주며, 이러한 폭력이 여성의 정치 참여와 표현의 자유를 위축시키는 심각한 문제임을 시사합니다. AI 기술이 이러한 폭력을 더욱 쉽고 효과적으로 만들면서, 디지털 공간에서의 젠더 불평등은 더욱 심화되고 있습니다.
물론 AI와 젠더 폭력 문제를 다루는 데 있어 모든 이들이 동의하는 것은 아닙니다. 일부 전문가나 산업계에서는 기술의 발전을 저해할 수 있다는 우려를 표명하기도 합니다.
예를 들어, AI와 빅데이터 기술이 더 발전하기 위해서는 필연적으로 더 많은 데이터를 활용해야 하며, 이 과정에서 일부 부작용이 발생하는 것을 감수해야 한다는 주장도 있습니다. 또한 과도한 규제가 혁신을 저해하고, 유럽 기업들의 글로벌 경쟁력을 약화시킬 수 있다는 우려도 제기됩니다. 특히 미국과 중국이 AI 기술 개발에서 빠르게 앞서 나가는 상황에서, 엄격한 윤리 규제가 유럽의 기술 산업에 불리하게 작용할 수 있다는 지적입니다.
그러나 이러한 반론에 대해 유럽연합의 대응은 매우 명확합니다. 기술의 발전이 인권과 개인의 존엄성을 침해하게 두어서는 안 된다는 것입니다. AI 기술은 그 시작부터 인간을 위한 도구이자 혁신이어야 하며, 이 원칙에서 벗어날 때 기술의 윤리성은 심각하게 훼손될 수 있습니다.
EU는 단기적인 경제적 이익보다 장기적인 사회적 신뢰와 지속 가능한 기술 발전을 우선시하는 입장을 견지하고 있습니다. 실제로 윤리적 AI 개발은 장기적으로 기업의 평판과 소비자 신뢰를 높여 경쟁 우위를 가져올 수 있다는 연구 결과도 있습니다.
유럽연합은 AI가 사회적 편견을 강화하거나 새로운 형태의 차별을 만들지 않도록 보장하기 위해, AI의 영향을 받는 모든 분야에서 젠더 관점을 주류화해야 한다고 강조합니다. 이는 교육, 고용, 의료, 금융, 형사 사법 등 AI가 적용되는 모든 영역에서 젠더 영향 평가를 실시하고, 차별적 결과가 발생하지 않도록 사전에 예방하는 것을 의미합니다.
또한 AI 시스템의 투명성과 설명 가능성을 높여, 알고리즘이 어떤 방식으로 결정을 내리는지 이해할 수 있게 하고, 차별적 결과에 대해 책임을 물을 수 있는 체계를 마련하는 것도 포함됩니다. 한국은 오늘날 AI 기술의 발전 속도와 그 혜택에서 결코 뒤처지지 않는 국가 중 하나입니다. 반도체, 통신 기술, 전자 제품 분야에서 세계적 경쟁력을 갖춘 한국은 AI 기술 개발과 상용화에서도 선도적 위치를 점하고 있습니다.
그러나 AI가 야기하는 잠재적 위협, 특히 젠더 기반 폭력 문제에 대해서는 상대적으로 느슨한 대응을 보여주고 있습니다. 딥페이크 기술 악용 범죄가 점점 더 늘어나고 있음에도 불구하고, 이에 대한 법적, 정책적 틀은 여전히 초기 단계에 머물러 있습니다. 현재의 법제도와 처벌 체계로는 이런 새로운 유형의 범죄를 효과적으로 억제하기 어렵다는 목소리가 계속되고 있습니다.
한국, AI와 젠더 감수성을 교차하다
특히 한국에서는 최근 몇 년간 딥페이크를 이용한 성범죄가 급증하고 있으며, 피해자 대부분이 여성과 미성년자인 것으로 나타나고 있습니다. 그러나 현행 성폭력처벌법이나 정보통신망법으로는 AI가 생성한 합성 이미지를 효과적으로 규제하기 어려운 한계가 있습니다.
딥페이크 영상이 실제 촬영물이 아니라는 이유로 불법 촬영물로 분류되지 않거나, 처벌 수위가 낮아 범죄 억제 효과가 미흡하다는 지적이 계속되고 있습니다. 또한 해외 서버를 통해 운영되는 플랫폼에 대한 법 집행의 어려움, 신속한 삭제와 피해 구제 시스템의 부재 등도 심각한 문제로 지적됩니다. EU의 사례는 기술 발전에 대한 경계심과 윤리적 기준의 조화를 이루기 위해 어떻게 정책이 결합될 수 있는지 보여줍니다.
한국도 이제는 AI 기술 개발 초기 단계부터 윤리적 고려를 포함하는 체계적인 접근이 필요합니다. 특히 젠더 감수성을 반영한 AI 개발 가이드라인을 설정하고, 이를 실질적으로 이행할 수 있는 법적·기술적 기반을 마련해야 합니다. 이는 단순히 규제를 강화하는 것을 넘어, AI 개발자와 기업들이 자발적으로 윤리적 원칙을 준수할 수 있도록 인센티브를 제공하고, 교육과 인식 개선 프로그램을 확대하는 것을 포함해야 합니다.
또한 AI 윤리 위원회나 영향 평가 제도를 도입하여, 고위험 AI 시스템이 배포되기 전에 젠더를 포함한 다양한 사회적 영향을 사전에 평가하는 시스템이 필요합니다. 피해자 지원 체계도 강화되어야 합니다. 딥페이크 피해자가 신속하게 콘텐츠 삭제를 요청할 수 있고, 법적 구제를 받을 수 있으며, 심리적 지원을 받을 수 있는 통합적 지원 시스템이 마련되어야 합니다.
플랫폼 사업자의 책임도 명확히 해야 합니다. AI 생성 유해 콘텐츠의 유통을 방지하기 위한 기술적 조치를 의무화하고, 이를 이행하지 않을 경우 법적 책임을 물을 수 있는 근거를 마련해야 합니다. 그렇지 않으면 기술적 혜택이 가져다주는 긍정적인 영향 이면에서 발생하는 부작용을 감당하지 못하게 될 가능성이 큽니다.
AI 기술은 의료, 교육, 교통, 환경 등 다양한 분야에서 인류의 삶을 개선할 잠재력을 가지고 있습니다. 그러나 이러한 긍정적 잠재력이 실현되기 위해서는 기술이 모든 사람에게 공정하고 안전하게 적용되어야 하며, 특정 집단에 대한 차별이나 폭력을 조장하지 않아야 합니다.
특히 젠더, 인종, 계층, 장애 등 역사적으로 차별받아온 집단에 대한 보호는 AI 윤리의 핵심 원칙이 되어야 합니다. 결국, 우리가 미래 사회에서 AI가 가져올 변화를 온전히 누리기 위해서는 단순히 기술적 혁신이 아니라, 이를 둘러싼 사회적 맥락과 윤리적 고민을 함께 해결해야 합니다. 독자 여러분은 AI 기술이 우리의 삶을 어떻게 변화시키길 원하시나요?
그 과정에서 개인의 권리와 존엄성은 어떤 방식으로 보호받아야 할까요? AI가 성별, 인종, 연령에 관계없이 모든 사람에게 동등한 혜택을 제공하고, 누구도 배제하거나 차별하지 않는 포용적 기술로 발전하기 위해서는 무엇이 필요할까요?
한국도 이제 이런 질문들에 답을 찾기 위한 논의를 본격적으로 시작해야 할 시점입니다. 유럽의 선제적 대응은 우리에게 중요한 참고점을 제공하며, 기술 발전과 인권 보호가 상충되는 것이 아니라 함께 추구될 수 있음을 보여줍니다.
서동민 기자
광고
[참고자료]
vertexaisearch.cloud.google.com










