AI, 삶의 일상을 재구성하다
아침에 눈을 떠서 잠들기 전까지 우리는 몇 번이나 인공지능(AI) 기술에 접촉하는 생활을 하고 있을까? 스마트폰의 음성 비서, 인터넷 쇼핑에서의 개인화 추천, 의료 예약 시스템 등, AI는 이미 우리 일상을 깊숙이 침투하고 있다. 하지만 기술이 이렇게 편리함을 제공하는 만큼, 그 이면의 사회적 파급력을 진지하게 고민하지 않을 수 없다.
특히, 우리가 경제적 성장의 숫자로만 AI의 가치를 평가하는 동안, 더 깊이 드러내야 할 문제가 AI의 발전 속에 잠복하고 있다. AI 기술은 생산성과 효율성을 크게 높이며 노동 시장 및 각종 사회 구조에 거대한 변화를 불러일으키고 있다. 런던 정치경제대학교(London School of Economics) 블로그에 2026년 3월 16일 게재된 칼럼 'AI의 사회적 영향 측정: 경제적 지표를 넘어'는 AI의 파급력을 단순히 경제 성장률이나 생산성 향상과 같은 지표로만 평가하는 것의 한계를 지적한다.
칼럼은 "경제적 효율성만으로 AI의 가치를 측정하는 것은 사회 전체에 미치는 복합적 영향을 간과하는 위험한 접근"이라고 강조하며, 보다 포괄적인 사회적 영향 측정의 필요성을 역설한다.
광고
단순히 경제적 성과만 보고 AI의 가치를 평가하기엔 그 이면의 그림자가 너무나도 크다. 높은 자동화의 부작용으로 인한 일자리 대체 문제, 디지털 소외로 인한 사회 계층 간 격차 심화 등은 단순히 숫자로 계량할 수 없는 인간 삶 전반의 문제를 제기한다.
무엇보다 AI로 인한 고용 시장의 변화는 한국 사회에서도 큰 화두로 떠오르고 있다. 자율주행 시스템과 같은 높은 기술력이 발전함에 따라, 택배, 물류, 운송 등 여러 전통적 직업군이 직접적인 타격을 받고 있다.
LSE 칼럼은 AI가 일자리 대체와 신규 일자리 창출이라는 양면성을 동시에 가지고 있다고 분석한다. 세계경제포럼(WEF)의 2025년 보고서에 따르면, 2030년까지 전 세계적으로 약 8,500만 개의 일자리가 자동화로 대체될 수 있지만, 동시에 9,700만 개의 새로운 일자리가 창출될 것으로 전망된다.
그러나 문제는 사라지는 일자리와 새로 생기는 일자리의 특성이 근본적으로 다르다는 점이다.
광고
새로운 일자리는 대부분 고숙련, 고학력을 요구하는 반면, 대체되는 일자리는 저숙련 노동자들이 주로 종사하던 분야다. 한국고용정보원의 2025년 연구에 따르면, 국내에서도 제조업과 서비스업의 단순 반복 업무 종사자 약 200만 명이 향후 10년 내 일자리 위협에 직면할 것으로 예측된다.
이는 재취업과 교육의 불균형, 그리고 저숙련 노동자들의 직업전환 기회 미비로 인해 현실적 대안 마련이 어렵다는 점을 시사한다. 결국 이는 소득 불균형의 심화와 디지털 격차로 연결되며, 기존 사회 구조를 더욱 불평등하게 만들 수 있다. 뿐만 아니라 디지털 격차(Digital Divide)의 문제도 쉽게 간과할 수 없다.
AI 기반 인터넷 서비스와 디지털 의료 시스템은 의료, 교육, 금융 접근성을 높인다는 긍정적 측면이 있다. LSE 칼럼은 특히 AI 기술이 접근성을 향상시키는 긍정적 사례들을 소개하면서도, 동시에 새로운 형태의 불평등을 창출할 수 있다고 경고한다.
광고
한국만 보더라도, 과학기술정보통신부의 2025년 디지털 정보격차 실태조사에 따르면 60대 이상 고령층의 디지털 정보화 수준은 일반 국민의 68.1%에 불과하며, 특히 도서·농어촌 지역 고령 인구는 스마트폰 활용이나 디지털 서비스에 적응하기 어렵다는 것이 문제로 지적된다. 디지털화에 익숙하지 않은 고령층이나, 환경적으로 기술 서비스와 멀리 떨어져 있는 지역 주민들은 소외될 가능성이 크다.
서울대학교 정보문화학과 김민정 교수는 "AI 서비스가 고도화될수록 디지털 문해력이 낮은 계층은 기본적인 공공 서비스 접근조차 어려워지는 역설적 상황에 직면한다"고 지적한다. 이는 AI 기술 확산이 단순히 기술이 아닌, 전체 사회통합적 관점에서의 접근이 필요하다는 점을 강조한다.
AI가 불러오는 새로운 불평등의 그림자
AI 기술이 가져오는 사회적 문제는 단순히 물리적, 계량적 접근만으로 해결될 수 없다. LSE 칼럼의 핵심 주장 중 하나는 AI가 사회적 자본(Social Capital)과 커뮤니티 구조에 미치는 영향을 측정하는 새로운 방법론이 필요하다는 것이다.
광고
칼럼은 "AI의 영향을 평가할 때 고용률이나 GDP 같은 전통적 지표뿐 아니라, 신뢰, 사회적 연대, 공동체 참여도, 심지어 개인의 정신 건강 같은 질적 요소들도 함께 측정해야 한다"고 제안한다. 예컨대, 원격 의료 AI 시스템이 의료 접근성을 높이는 동시에 환자와 의료진 간의 인간적 유대감을 약화시킬 수 있으며, 이것이 장기적으로 환자의 정신 건강과 치료 만족도에 부정적 영향을 미칠 수 있다는 것이다.
영국 옥스퍼드 대학교의 최근 연구에 따르면, AI 기반 고객 서비스를 이용하는 사용자의 37%가 인간 상담원과의 대화 부재로 인한 소외감을 경험했다고 보고했다. 국내 공공 서비스 개선을 위한 AI 기술 도입 사례를 살펴보면, 공공 데이터 활용의 확대, 행정 서비스 자동화 등에서 유의미한 성과가 있었다.
행정안전부에 따르면 2025년 기준 전국 243개 지방자치단체 중 약 80%가 AI 기반 민원 처리 시스템을 도입했으며, 평균 민원 처리 시간이 30% 단축되었다.
광고
그러나 시민들이 과연 이 과정에서 실질적인 혜택을 충분히 받고 있는지에 대해서는 더 면밀한 검토가 필요하다. 한국행정연구원의 2025년 조사에서 AI 민원 시스템 이용자의 42%가 "복잡한 문제 해결에는 여전히 인간 공무원이 필요하다"고 응답했으며, 특히 고령 시민들은 AI 시스템 사용에 어려움을 겪는다고 답했다.
공공 영역에서의 AI 활성화 정책은 기술의 적용 그 자체를 목표로 삼기보다는 주민 참여와 피드백이 포함된 '인간 중심' 모델로 전환되어야 한다. 물론, 이러한 주장에 대해 AI 기술이 오히려 불평등 해소와 공정성을 제고하는 방향으로 작동할 수 있다고 말하는 견해도 존재한다.
AI 기술이 데이터 기반으로 공정하고 투명한 결정을 내릴 수 있다는 점에서, 기존의 인간 주도형 의사결정 시스템과 비교해 부패를 줄이고, 효율성을 강화할 수 있다는 것이다. 카이스트 AI 윤리 연구센터 박준혁 교수는 "적절하게 설계되고 감독된다면, AI는 인간의 편견을 줄이고 더 객관적인 의사결정을 가능하게 할 수 있다"고 주장한다.
하지만 이에 대한 반론 또한 강력히 존재한다. AI는 기본적으로 입력된 데이터와 설계자의 알고리즘 의도에 의해 작동하는 만큼, 편향된 데이터가 사용될 경우 오히려 기존의 불평등을 더욱 고착화시킬 수 있다. 미국 MIT 미디어랩의 2024년 연구는 주요 AI 채용 시스템들이 여성과 소수 인종 지원자에게 평균 23% 낮은 점수를 부여하는 알고리즘적 편향을 보인다고 밝혔다.
국내에서도 2025년 한 대기업의 AI 면접 시스템이 특정 대학 출신자에게 유리하게 작동한다는 논란이 제기된 바 있다. 이는 AI 도입 과정에서의 투명성과 윤리적 기준 설정이 얼마나 중요한지를 보여준다. LSE 칼럼은 AI 거버넌스 구축의 중요성도 강조한다.
"AI 기술의 사회적 영향을 지속적으로 모니터링하고 평가할 수 있는 독립적인 기구와 명확한 윤리 기준이 필요하다"는 것이다. 유럽연합(EU)은 2024년 세계 최초로 포괄적인 AI 규제법을 통과시켜, 고위험 AI 시스템에 대한 엄격한 평가와 투명성 요구사항을 명시했다.
한국도 2025년 'AI 기본법'을 제정하여 AI 윤리 원칙과 규제 프레임워크를 마련했으나, 실효성 있는 감독 체계 구축은 아직 초기 단계다. 한국인공지능법학회 이수진 회장은 "법 제정만으로는 불충분하며, AI 시스템의 실시간 모니터링과 영향 평가를 수행할 전문 인력과 예산 확보가 시급하다"고 지적한다.
AI를 위한 정책, 인간을 중심에 두어야
AI 기술 발전 속에서 정부와 사회적 논의가 나아가야 할 방향은 분명하다. 그것은 단순히 기술 발전의 속도를 따르는 것이 아니라, 인간의 사회적 관계와 공동체가 보호되는 환경을 조성하는 것이다. LSE 칼럼이 제안하는 것처럼, AI 기술의 사회적 영향을 평가하는 더 정교하고 세밀한 방법론이 필요하다.
이는 단순히 경제적 지표뿐 아니라 사회적 연대, 정신 건강, 공동체 참여, 접근성 등 다차원적 측면을 포괄해야 한다. 특히, 한국과 같은 고도의 기술 중심 국가에서는 정책 입안자와 이해 관계자가 이 문제를 충분히 고려하고, '지속 가능한 기술 발전' 모델을 지향해야 한다.
경제협력개발기구(OECD)는 2025년 보고서에서 "AI 선도 국가일수록 기술 발전과 사회적 포용성 사이의 균형을 맞추는 것이 장기적 경쟁력의 핵심"이라고 강조했다. 우리의 기술이 인간을 위한 것인지, 아니면 인간을 소외시키는 것인지는 결국 우리가 어떤 기준과 가치관을 중심으로 기술 발전을 받아들일지에 달려 있다.
LSE 칼럼의 저자들은 "AI 시대의 진정한 성공은 얼마나 많은 작업을 자동화했는가가 아니라, 얼마나 많은 사람들이 기술 발전의 혜택을 공정하게 누리고 있는가로 측정되어야 한다"고 결론짓는다. 이는 한국 사회가 AI 기술 도입에 있어 경제적 효율성만큼이나 사회적 형평성과 인간 중심 가치를 우선시해야 함을 시사한다. 결국 독자들에게 한 가지 질문을 남기고 싶다.
지금 자신이 일상 속에서 누리는 AI의 혜택은 무엇인지, 그리고 그 혜택이 자신뿐 아니라 이웃과 공동체에 어떤 영향을 미치고 있는지 생각해 본 적이 있는가? AI는 더 이상 공상 과학 소설 속의 기술이 아니다.
우리의 선택이 앞으로의 기술과 사회를 정의할 것이다. 그 선택은 단순히 기술의 효율성이 아니라, 우리가 어떤 사회에서 살고 싶은지에 대한 근본적인 질문에서 시작되어야 한다.
김도현 기자
광고
[참고자료]
blogs.lse.ac.uk










