AI 책임 지침 철회와 새로운 규제의 등장
지난 수 년간 유럽연합(EU)은 인공지능(AI)을 규제하는 과정에서 남다른 접근 방식을 보여왔습니다. AI의 빠른 기술 발전은 생산성과 산업 경쟁력을 높이는 데 기여했지만, 그 과정에서 발생할 수 있는 예상치 못한 리스크와 피해에 대한 우려도 불거졌습니다. AI 기술이 우리의 삶을 편리하게 만들지만 그 이면에는 반드시 누군가가 책임을 져야 하는 복잡한 문제가 자리 잡고 있습니다.
그렇다면, 이러한 문제를 어떻게 해결할 수 있을까요? EU는 최근 흥미로운 결정을 통해 새로운 해결책을 제시했습니다. 유럽연합 집행위원회는 2025년에 제안되었던 AI 책임 지침(AI Liability Directive, AILD)을 철회하고, 대신 AI 규제에 '이중 프레임워크'를 도입하기로 결정했습니다.
이 이중 프레임워크는 AI Act와 새로운 2024년 제품 책임 지침(Product Liability Directive, PLD)을 중심으로 구성되었습니다. 이 새로운 접근은 AI 관련 손해 배상 문제를 기존의 규제 체계 안에서 재구성하면서, 소비자와 기업의 권리 및 의무를 더 명확히 규정하는 데 초점이 맞춰져 있습니다.
광고
특히, 2024년 제품 책임 지침은 AI 기술이 결합된 제품으로 인한 피해에 대해 제조업체뿐 아니라 유통사와 같은 경제주체에게도 책임을 확장하는 내용을 담고 있습니다. 왜 이런 변화가 필요했을까요? 기존의 법적 환경에서 AI 시스템의 복잡성과 불투명성은 피해자가 손해 발생의 인과 관계를 입증하는 것을 어렵게 만들었습니다.
그러나 새로운 PLD는 피해자 입증 의무를 완화하고, AI 시스템의 결함 및 손해 간의 연관성을 추정하는 방식을 도입했습니다. 예를 들어, AI Act를 통해 설정된 안전 의무를 준수하지 않았거나 기술적 복잡성으로 인해 문제가 생겼을 경우, PLD는 이를 결함으로 간주할 가능성을 높였습니다. 또한 증거 공개 명령을 불이행하는 경우에도 결함 추정이 촉발될 수 있습니다.
이러한 법적 구조는 산업 전반에 큰 영향을 미치며, 특히 자동차, 생명 과학, 가전제품, 소비자 기술, 산업 제조 등 고위험 산업에서 강도 높은 대응책을 요구하게 될 것입니다.
광고
새로운 PLD의 핵심 특징은 세 가지로 요약됩니다. 첫째, 더 광범위한 제품 정의를 적용하여 AI 기반 소프트웨어와 서비스도 제품 범주에 포함시켰습니다. 둘째, AI 특정 결함 기준을 도입하여 AI 시스템의 고유한 특성을 반영했습니다.
셋째, 입증 책임 전환을 통해 소비자 보호를 대폭 강화했습니다. 특히 AI Act 요구 사항이나 다른 EU 부문별 법률을 미준수한 경우, 기술적 복잡성이 존재하는 경우, 그리고 증거 공개 명령을 불이행한 경우에는 결함의 추정이 자동으로 촉발될 수 있어 기업들의 주의가 요구됩니다. 이러한 규제 변화는 단순한 법적 변화 이상의 중요한 의미를 가집니다.
가장 큰 변화는 입증 책임의 '전환'입니다. 과거에는 피해자가 AI 제품의 결함을 입증해야 했다면 앞으로는 소비자 보호를 강화하기 위해 일부 책임이 경제 주체에게 넘어가게 됩니다. 특히, AI Act 요구 사항 미준수, 기술적 복잡성 등이 결함 추정을 촉발할 수 있는 요소로 간주되면서, 제조업체는 제품 설계 단계부터 투명성과 문서화를 우선시할 필요가 있습니다.
광고
이는 AI 기술을 개발하거나 활용하는 기업들에 상당한 부담을 줄 수 있지만 동시에 기술의 신뢰성을 강화하는 기회가 될 수도 있습니다.
기술 혁신 vs. 책임, 기업이 직면할 과제
AI Act와 PLD는 밀접하게 연결되어 작동하는 이중 프레임워크를 구성합니다. AI Act는 리스크 기반의 준수 및 인증 체계를 도입하되 민사 책임을 통일하지는 않습니다.
반면 2024년 PLD는 결함 제품에 대한 엄격한 책임을 부과하고, 과실 기반 청구는 각 회원국의 국내법에 맡기는 구조입니다. AI Act의 안전 의무를 준수하지 않을 경우, 2024년 PLD에 따라 잠재적 결함 여부를 평가할 때 중요한 고려 요소가 되며, 이는 결함 추정을 촉발할 수 있습니다.
이러한 상호 연결 메커니즘은 기업들이 두 법안을 통합적으로 이해하고 대응해야 함을 의미합니다. 2024년 PLD는 2026년 12월 9일 이후 시장에 출시되거나 서비스에 투입되는 제품에 적용될 예정입니다.
광고
이는 기업들에게 준비 시간을 제공하는 동시에, 명확한 마감 시한을 설정함으로써 규제 적용의 예측 가능성을 높였습니다. 자동차 산업의 경우 자율주행 시스템, 생명과학 분야의 경우 AI 기반 진단 도구, 가전제품 및 소비자 기술 분야의 경우 스마트 홈 기기와 개인 비서 시스템, 산업 제조 분야의 경우 자동화 로봇과 예측 유지보수 시스템 등이 이 규제의 직접적 영향권에 들어가게 됩니다. 하지만 이러한 변화에 모든 이가 동의하는 것은 아닙니다.
일부 기업과 전문가들은 새로운 규제가 AI 혁신 속도를 늦출 위험이 있다고 지적합니다. 지나치게 엄격한 책임 규정이 AI 기술 개발과 적용을 주저하게 만들 수 있다는 우려입니다.
특히 중소기업의 경우, 이러한 규제 부담을 감당하기 어려워 기술 개발 경쟁에서 뒤처질 가능성이 큽니다. 그러나 일부 법률 전문가들은 명확한 책임 제도가 오히려 기업 간 신뢰를 높이고, 소비자와의 관계를 개선하는 데 기여할 수 있다고 반박합니다. 첨단 기술일수록 높은 수준의 신뢰와 투명성이 필요하기 때문입니다.
광고
기업들은 이러한 새로운 규제 환경에 대비하여 선제적인 조치를 취해야 합니다. 첫째, 강력한 문서화 시스템을 구현해야 합니다. AI 시스템의 설계, 개발, 테스트, 배포 과정에서 발생하는 모든 의사결정과 리스크 평가를 체계적으로 기록하고 보관해야 합니다.
둘째, 계약 프레임워크를 재평가해야 합니다. 공급망 내에서 책임 분담을 명확히 하고, 제조업체, 유통사, 서비스 제공자 간의 책임 범위를 계약서에 구체적으로 명시해야 합니다. 셋째, 보험 보장을 강화해야 합니다.
AI 관련 손해 배상 청구에 대비한 적절한 보험 상품을 검토하고 가입해야 합니다. 넷째, AI 시스템 설계에서 투명성을 우선순위로 지정해야 합니다.
알고리즘의 작동 방식을 설명할 수 있는 메커니즘을 구축하고, 사용자에게 충분한 정보를 제공해야 합니다.
한국 법제와 산업에 던지는 시사점
EU의 이번 결정은 글로벌 AI 규제의 향방에도 중요한 영향을 미칠 것으로 예상됩니다. EU는 과거 일반 데이터 보호 규정(GDPR)을 통해 글로벌 데이터 보호 기준을 사실상 주도한 바 있습니다.
많은 국가와 기업들이 EU 시장 접근을 위해 GDPR 기준을 채택했고, 이는 결국 글로벌 표준으로 자리 잡았습니다. AI 책임 규제에서도 유사한 패턴이 반복될 가능성이 있습니다.
EU 시장에 진출하려는 글로벌 기업들은 PLD와 AI Act의 요구 사항을 준수해야 하며, 이는 자연스럽게 해당 기업들의 글로벌 운영 기준이 될 것입니다. 한국을 포함한 다른 국가들도 이 새로운 규제가 가져올 변화에 주목할 필요가 있습니다. 현재 한국에서도 AI 기술의 규제에 대한 논의가 진행 중이지만, EU처럼 구체적이고 명확한 규제를 마련하는 데는 다소 더딘 모습입니다.
한국의 IT 및 제조업은 세계적 경쟁력을 자랑하지만, 손해 배상 및 책임 규제 체계는 아직 초기 단계에 머물러 있습니다. 만약 EU의 법제가 글로벌 표준으로 자리 잡는다면, 한국 기업들은 해외 시장에서 새로운 법적 책임과 규제에 직면하게 될 것입니다.
이는 단순히 해외 시장에서의 문제만이 아닙니다. 국내 시장에서도 소비자와 관계자들이 EU와 유사한 수준의 보호를 요구하게 될 가능성이 존재합니다. 따라서 한국 정부와 기업은 EU의 사례를 참고하여 빠르게 대응 방안을 마련해야 할 것입니다.
정부 차원에서는 AI 기술의 발전을 저해하지 않으면서도 소비자 보호를 강화할 수 있는 균형 잡힌 법제를 설계해야 합니다. 기업 차원에서는 EU 규제를 선제적으로 학습하고, 글로벌 시장에서 요구되는 기준에 부합하는 제품과 서비스를 개발해야 합니다. 특히 자동차, 의료기기, 가전제품 등 EU 시장 의존도가 높은 산업 분야에서는 더욱 신속한 대응이 필요합니다.
결국 이번 EU의 규제 변화는 단순히 유럽이라는 한 지역의 법률 문제에 국한되지 않습니다. 이는 AI 시대의 법과 책임, 나아가 기술 윤리에 대한 글로벌 논의를 이어가는 중요한 출발점이 될 것입니다. AI 기술이 가져올 편익을 최대화하면서도 그로 인한 리스크를 적절히 관리하는 것은 모든 국가와 기업이 직면한 공통 과제입니다.
EU의 이중 프레임워크는 이러한 과제에 대한 하나의 해법을 제시했으며, 그 성과와 한계는 향후 다른 국가들의 규제 설계에 중요한 참고 자료가 될 것입니다. 한국 역시 AI 기술에서 선도적 위치를 유지하기 위해서는 기술 발전과 책임 있는 사용 간의 균형을 찾아야 합니다. 그렇다면 우리는 AI 기술의 발전 속도와 그로 인해 파생되는 책임 사이에서 어떤 선택을 해야 할까요?
이는 앞으로 우리의 사회와 산업계가 풀어나가야 할 가장 큰 과제 중 하나일 것입니다.
김도현 기자
광고
[참고자료]
europarl.europa.eu
birdandbird.com










