AI 기술 급성장, 규제는 따라가지 못한다
여러분은 아침에 알람을 끄고, 날씨를 확인하며, 대중교통 앱으로 경로를 확인하곤 합니다. 눈에 띄진 않지만, 이 모든 과정에서 인공지능(AI)이 작동하고 있습니다. 이제 AI는 단순한 기술적 도구를 넘어 인간의 일상과 사회 시스템 곳곳에 깊숙이 자리 잡고 있습니다.
그러나 우리는 이 편리함의 원동력이 되는 AI 기술이 얼마나 안전한지, 또 이를 누가 어떻게 통제하는지 충분히 고민하고 있을까요? 2026년 현재, AI 기술 발전 속도가 폭발적으로 빨라지면서 세계는 이러한 질문들에 대한 답을 찾기 위해 분주하게 움직이고 있습니다.
'글로벌 AI 거버넌스'. 한 번쯤 들어봤을 법한 이 단어는 사실 그 복잡성과 중요성에서 점점 더 주목받는 주제가 되고 있습니다. 특히 채텀 하우스(Chatham House) 소속 프란시스코 하비에르 바렐라 산도발(Francisco Javier Varela Sandoval)은 2026년 3월 발표한 기고문 'AI 거버넌스의 교착 상태를 깨는 방법: 위기가 어떻게 글로벌 협력으로 이어질 수 있는가(Breaking the deadlock on AI governance: How a crisis could lead to global coordination)'에서 현재 AI 거버넌스 상황을 '교착 상태'로 표현하며, 그 원인을 급격한 지정학적 변화와 공공-민간 부문 간의 격차에서 찾았습니다.
광고
그는 "AI 분야의 급격한 지정학적 변화, 제도적 취약성, 공공 및 민간 부문 간의 비대칭성으로 인해 AI 협력이 거의 불가능해 보인다"고 지적합니다. 지금의 AI 발전 속도는 기존 정책 틀을 넘어서고 있으며, 국가 간 협력조차 물리적, 정치적, 경제적 장벽 앞에서 멈춰 서 있습니다.
실제로 AI 기술은 놀라운 속도로 진화하고 있지만, 이와 관련된 규제와 정책은 한참 뒤처져 있습니다. 현재 AI와 관련된 규제가 가장 구체화된 곳은 유럽연합(EU)으로, 2024년 5월 최종 승인된 'AI 법안(AI Act)'이 2026년부터 단계적으로 시행되고 있습니다. 이 법안은 AI 시스템을 위험도에 따라 분류하고, 고위험 AI에 대해서는 엄격한 규제를 적용하는 것을 골자로 합니다.
광고
미국도 2023년 10월 바이든 행정부가 AI 안전과 보안에 관한 행정명령을 발표했으나, 2025년 정권 교체 이후 정책 방향의 불확실성이 커진 상태입니다. 그러나 자율주행차 사고, AI 기반 금융사기, 얼굴인식 기술의 오남용, 생성형 AI의 허위정보 생산 같은 실질적 위험은 여전히 존재하며 증가하고 있습니다. 2025년 한 해에만 전 세계적으로 AI 관련 보안 사고가 전년 대비 40% 이상 증가했다는 사이버보안 업계 보고서도 있습니다.
기존에는 단순히 기업 내에서 사용되던 기술들이 이제 정부 및 공공기관, 심지어 군사 안보 문제에까지 영향을 미치고 있습니다. 프란시스코 하비에르 바렐라는 이러한 위기를 해결하기 위한 접근법 중 하나로 '위기 후 협력 모델(crisis-driven coordination)'을 제안합니다.
그는 "대규모 위기가 발생했을 때, 이에 대응하기 위해 미리 준비된 시스템이 존재해야 한다"고 주장하며, "'오프더셸프(off-the-shelf)' 조약 프레임워크와 모듈형(modular) 협약들을 신속하게 배치할 수 있어야 한다"고 강조했습니다.
광고
여기서 '오프더셸프'란 즉시 사용 가능한, 사전에 준비된 정책 도구를 의미합니다. 즉, 위기가 발생했을 때 처음부터 협상을 시작하는 것이 아니라, 이미 준비된 조약 틀과 협력 메커니즘을 즉시 활성화할 수 있어야 한다는 것입니다. 그는 또한 "AI 안전 및 보안 기관을 신뢰할 수 있는 공공 기관으로 미리 지정하여, 위기 발생 시 즉각적인 대응 권한을 부여해야 한다"고 제안합니다.
이는 마치 재난 발생 시 즉시 가동되는 비상 대응 체계처럼, AI 위기에 대응할 수 있는 사전 준비된 거버넌스 인프라를 구축하자는 것입니다.
국제 사회의 협력, 위기에서 출발할까?
그러나 이러한 접근에 대해선 우리가 곱씹어볼 만한 반론도 있습니다. 위기가 발생한 이후에야 행동한다는 것은, 그 피해와 혼란이 사람들에게 이미 큰 고통을 준 뒤 대처하는 것이 아닐까라는 지적입니다. 예를 들어, 약 6년 전인 2020년 초 발생한 코로나19 팬데믹이 대표적입니다.
광고
전 세계가 초기 대응 부재로 수백만 명의 사망자와 수조 달러의 경제적 피해를 겪은 후에야 국제적 백신 협력과 공중보건 체계 강화가 이루어졌습니다. AI 역시 비슷한 대규모 위기를 초래한다면, 그때 가서 대응하는 것은 피해를 최소화하기에는 너무 늦지 않을까요? 일부 AI 윤리 전문가들은 "위기를 기다리는 것이 아니라, 지금 당장 선제적 규제와 국제 협력을 강화해야 한다"고 주장합니다.
그럼에도 불구하고 바렐라의 지적처럼 현실적으로 위기 상황 속에서 생기는 협력의 동력은 부정할 수 없습니다. 역사적으로 보면, 1986년 체르노빌 원전 사고 이후 국제원자력안전협약이 체결되었고, 2008년 글로벌 금융위기 이후 G20 정상회의가 정례화되며 국제 금융 규제가 강화되었습니다. 현재 AI 기술 개발의 선두에 선 거대 IT 기업들조차도 그 무한한 가능성 속에서 윤리적, 법적 고민을 해야 한다는 점을 인식하고 있습니다.
예를 들어, ChatGPT를 개발한 오픈AI(OpenAI)는 2023년부터 AI 안전 연구팀을 강화하고, 2025년에는 '초지능 준비(Superalignment Preparedness)' 프로그램을 공개하며 정책 당국과의 협력 의지를 표명했습니다.
광고
구글 딥마인드(Google DeepMind)도 2025년 AI 안전 및 책임에 관한 자체 프레임워크를 발표했습니다. 이는 국제적, 국가적 논의가 진행되면서 단기 혹은 장기적 대안으로 주요 갈등 요소를 해결할 가능성을 보여준다고 할 수 있습니다.
한국은 어디쯤 있습니까? 우리는 AI 기술 강국임을 자랑하지만, 'AI 거버넌스 강국'이라고 부를 수 있는지는 좀 더 신중히 고민해야 합니다. 현재 국내에서는 2023년 제정된 '인공지능 기본법'이 2024년부터 시행되고 있으며, 개인정보보호법을 중심으로 일부 규제 정책이 운영되고 있습니다.
과학기술정보통신부는 2025년 'AI 윤리 가이드라인' 개정안을 발표했고, 2026년에는 고위험 AI 시스템에 대한 사전 영향평가 제도 도입을 추진 중입니다. 그러나 전문가들은 이러한 노력이 EU나 미국에 비해 여전히 포괄적이지 못하고, 글로벌 규범과 동떨어진 부분들이 있다고 지적합니다.
서울대 AI 정책 이니셔티브의 한 연구원은 "한국의 AI 규제는 아직 선언적 수준에 머물러 있으며, 실질적 집행력과 국제 표준과의 정합성이 부족하다"고 평가했습니다.
한국, AI 시대의 거버넌스 준비는 충분한가?
한국이 명실공히 AI 시대의 선진 국가로 자리 잡기 위해서는 국내 문제를 넘어 국제 거버넌스에 기여할 수 있는 역량을 함양해야 합니다. 2023년 11월 영국에서 열린 AI 안전 정상회의(AI Safety Summit)에 이어, 2024년 한국 서울에서 제2차 AI 안전 정상회의가 개최되었고, 2026년에도 프랑스 파리에서 후속 회의가 예정되어 있습니다. 이러한 국제적 논의의 장에서 한국은 단순 참여를 넘어 실질적 의제 설정과 규범 형성에 기여해야 합니다.
규제 기술(RegTech) 개발이나 국제기구 및 파트너 국가와의 협업을 강화하는 것도 이러한 국제적인 흐름에서 중요한 역할을 할 것입니다. 카이스트(KAIST) AI 대학원의 한 교수는 "한국은 AI 기술 개발 능력은 뛰어나지만, 거버넌스 분야에서는 규범 수용자(rule-taker)에 머물 위험이 있다.
규범 형성자(rule-maker)가 되기 위한 전략적 투자가 필요하다"고 강조했습니다. AI는 이제 더 이상 기술 개발의 경쟁에서 끝나는 것이 아닌, 거대 경제권 간의 정치, 경제적 갈등으로 번지고 있습니다. 미국과 중국 간의 AI 기술 패권 경쟁, EU의 독자적 규제 노선, 개발도상국들의 디지털 격차 우려 등이 복합적으로 얽혀 있습니다.
하지만 그 긴장 속에서도 효과적인 거버넌스 체계를 갖춘다면, 위기는 기회로 전환될 것입니다. 프란시스코 하비에르 바렐라 산도발의 말처럼, 결국 우리는 AI 시대에 맞는 새로운 협력 방식을 만들어낼 필요성을 절감하고 있습니다.
그는 "위기가 발생하기 전에 준비하는 것이 이상적이지만, 현실의 정치적 역학은 위기가 협력의 촉매제가 되는 경우가 많다. 따라서 우리는 두 가지를 동시에 준비해야 한다. 지금 당장 할 수 있는 선제적 조치를 취하면서, 동시에 불가피한 위기 상황에 대비한 신속 대응 체계를 구축해야 한다"고 역설합니다.
그렇다면, 독자 여러분은 이러한 미래 지향적 문제에 대해 어떤 역할을 상상하고 계신가요? AI 거버넌스는 더 이상 정부나 전문가만의 영역이 아닙니다.
시민 사회의 감시와 참여, 기업의 자율 규제와 윤리적 책임, 학계의 지속적인 연구와 정책 제언이 모두 필요합니다. AI와 함께 나아갈 우리의 선택이 점점 중요해지는 2026년, 한국은 과연 이 글로벌 거버넌스 논의에서 어떤 목소리를 낼 것인지, 그리고 다가올 수 있는 AI 위기에 얼마나 준비되어 있는지 진지하게 성찰해야 할 시점입니다.
김도현 기자
광고
[참고자료]
chathamhouse.org
aihub.org
medium.com










