[한국공공정책신문=김유리 기자] 인공지능(AI) 기술의 급격한 발전은 우리 삶에 전례 없는 편리함을 가져다주었지만, 빛이 밝을수록 그림자가 짙어지듯 범죄의 수법 또한 더욱 정교하고 치밀하게 만드는 도구가 되기도 했습니다. 과거의 보이스피싱이 어눌한 말투나 조악한 통화 품질로 인해 쉽게 의심을 샀다면, 최근 등장한 AI 기반의 신종 사기는 실제 가족이나 지인의 목소리는 물론 얼굴까지 완벽하게 모방하여 피해자를 혼란에 빠뜨리고 있습니다. 이제 우리는 기술의 발전 속도만큼이나 빠르게 진화하는 사기 유형을 이해하고, 스스로를 지킬 수 있는 예방책을 숙지해야 합니다.
가장 위협적인 신종 사기 유형으로는 단연 '딥보이스(Deep Voice)'와 '딥페이크(Deepfake)'가 꼽힙니다. 딥보이스는 AI 딥러닝 기술을 활용해 특정인의 목소리를 합성하는 기술로, SNS나 유튜브 등에 업로드된 짧은 영상 속 목소리만으로도 실제와 거의 구별할 수 없는 음성을 만들어냅니다. 범죄자들은 이를 이용해 자녀의 울먹이는 목소리로 납치 상황을 연출하거나, 직장 상사의 목소리로 급한 송금을 요구하는 등 피해자의 심리를 교묘하게 파고듭니다. 더 나아가 딥페이크 기술은 목소리를 넘어 얼굴까지 합성하여 실시간 영상통화로 접근합니다. 지인의 얼굴을 한 사기꾼이 자연스러운 표정과 입 모양으로 해외에서 지갑을 잃어버렸다며 도움을 요청하거나, 로맨스 스캠과 같은 사기에 악용하는 사례가 늘고 있습니다.
이뿐만 아니라 챗GPT와 같은 생성형 AI를 악용한 맞춤형 피싱도 기승을 부리고 있습니다. 과거의 피싱 메일이나 문자가 어색한 번역체나 문법 오류로 인해 식별이 가능했다면, AI가 작성한 피싱 문구는 완벽한 문법과 자연스러운 비즈니스 화법을 구사하여 관공서나 은행을 사칭합니다. 또한, 유명 경제 전문가나 연예인이 방송에 출연해 특정 투자 상품을 추천하는 가짜 영상을 만들어 대중을 현혹하는 투자 사기 또한 주의해야 할 유형입니다.
이처럼 기술적으로 완벽해 보이는 AI 사기라 할지라도, 우리가 침착하게 확인 절차를 거친다면 충분히 예방할 수 있습니다. 가장 강력하고 확실한 방법은 가족이나 가까운 지인들끼리만 알 수 있는 '나만의 암호'를 만드는 것입니다. 위급한 상황에서 서로의 신원을 확인할 수 있도록, 외부인은 알기 힘든 구체적인 질문이나 단어를 미리 정해두는 것이 좋습니다. 또한, 금전을 요구하거나 위급 상황을 알리는 전화를 받았을 때는 당황하지 말고 일단 전화를 끊은 뒤, 당사자의 원래 번호로 다시 걸어 사실 여부를 확인하는 '끊고, 확인하기' 습관을 들여야 합니다.
영상통화 시에는 딥페이크 기술의 허점을 이용해 볼 수 있습니다. 정면 얼굴은 완벽하게 합성될지 몰라도, 고개를 돌리거나 손으로 얼굴을 가리는 등 복잡한 움직임 앞에서는 합성이 깨지거나 어색해질 수 있기 때문입니다. 따라서 영상통화로 금전을 요구받을 때는 상대방에게 손을 흔들어 보거나 고개를 좌우로 돌려보라고 요청하여 화면의 왜곡 여부를 확인하는 것이 필요합니다. 더불어 딥보이스와 딥페이크의 재료가 되는 SNS 상의 사진과 영상 공개를 최소화하고, 출처가 불분명한 문자 메시지의 링크는 절대 클릭하지 않는 등 디지털 보안 수칙을 생활화해야 합니다.
만약 이미 송금을 했거나 개인정보가 유출된 상황이라면, '골든타임' 내에 신속하게 조치해야 합니다. 즉시 경찰청이나 금융감독원, 해당 은행에 연락하여 계좌 지급 정지를 요청하고, 악성 앱 설치가 의심되는 휴대전화는 초기화하거나 전문가의 점검을 받아야 합니다. 또한, '엠세이퍼(M-Safer)'와 같은 명의도용 방지 서비스를 활용해 추가적인 피해를 막는 것도 중요합니다.
기술이 발전할수록 사기 수법은 계속해서 진화할 것입니다. "나는 절대 속지 않을 것"이라는 방심보다는 "누구나 속을 수 있다"는 건전한 경각심을 가지는 것이야말로 최고의 예방책입니다. 오늘 저녁, 가족들과 함께 마주 앉아 우리 가족을 지킬 수 있는 작은 약속과 암호를 정해보는 것은 어떨까요?(엠세이퍼 M-safer:명의도용 방지서비스)
이정찬
· (전)서울시의회 의원, 서울시의회독도특위위원장
· 민주평통자문회의자문위원
· 서울남부지방법원조정위원









