AI는 우리의 일자리를 어떻게 변화시키는가?
4차 산업혁명의 선구자라 불리는 인공지능(AI)은 이제 단순한 기술 발전 단계를 넘어 우리 사회의 모든 영역에 본질적인 영향을 미치고 있습니다. 그러나 이 혁신적 기술의 성과를 단순히 경제지표에 기반해 평가하는 것은 과연 충분할까요? 전 세계적으로 AI의 데이터 기반 영향을 분석한 해외 논의들은 오히려 더 깊은 통찰을 요구하고 있습니다.
런던 정치경제대학교(LSE) 블로그에 최근 게재된 'AI의 사회적 영향 측정: 경제적 지표를 넘어'(Measuring the Social Impact of AI: Beyond Economic Metrics)라는 제목의 칼럼은 AI가 야기하는 변화의 진폭을 제대로 이해하려면 보다 포괄적이고 다층적인 시각을 적용해야 한다고 주장합니다. 이 칼럼의 저자들은 "AI의 영향을 GDP 성장률이나 생산성 지수만으로 측정하는 것은 마치 빙산의 일각만 보는 것과 같다"며, "고용 구조의 변화, 사회적 불평등, 디지털 접근성, 정신 건강, 그리고 커뮤니티의 사회적 자본에 이르기까지 다면적 영향을 종합적으로 평가해야 한다"고 강조합니다.
광고
우리는 오늘날 이 논의가 AI 기술 선두국인 한국 사회와 기업에 어떤 의미를 지니는지 깊이 탐구해보고자 합니다. AI는 고용 시장에 새로운 지형을 만들고 있습니다.
전문가들은 AI가 저숙련 노동을 자동화하면서 기존 직업군을 대체할 가능성을 경고하는 한편, 동시에 새로운 유형의 일자리 창출을 촉진할 수도 있다고 분석합니다. 예컨대, AI 기술 도입으로 인한 생산성 향상은 고급 데이터 분석가, 머신러닝 엔지니어, AI 윤리 전문가 등 새로운 직업군의 급성장을 이끌고 있죠.
글로벌 컨설팅사 맥킨지의 2017년 보고서 'Jobs Lost, Jobs Gained'에 따르면 2030년까지 세계적으로 자동화 기술의 확산으로 약 4억에서 8억 개의 일자리가 영향을 받을 수 있으며, 동시에 새로운 직업 수요가 창출될 것으로 전망됩니다. 이후 2021년 업데이트된 맥킨지 분석은 팬데믹 이후 디지털 전환 가속화로 이러한 변화가 더욱 빨라질 수 있음을 시사했습니다.
광고
한국 역시 이러한 글로벌 추세 속에서 예외가 아닙니다. 특히 제조업과 물류, 금융, 고객 서비스 등 다양한 분야에서 AI의 침투 속도가 빨라지며 고용 구조의 개편 압박이 명확해지고 있습니다.
한국고용정보원의 2025년 연구에 따르면, 국내 일자리의 약 23%가 AI 및 자동화 기술에 의해 고위험군으로 분류되었으며, 특히 단순 반복 업무 중심의 직종에서 대체 가능성이 높게 나타났습니다. 그러나 동시에 데이터 사이언스, AI 개발, 디지털 마케팅 등 새로운 분야에서의 인력 수요는 연평균 15% 이상 증가하고 있어, 노동 시장의 양극화 현상이 심화되고 있는 상황입니다.
이와 함께 AI가 사회 내 소득 불균형의 심화를 야기할 가능성도 중요한 논점입니다. LSE 칼럼은 "AI 기술의 혜택은 고도의 교육을 받고 디지털 역량을 갖춘 계층에 집중되는 반면, 저숙련 노동자들은 일자리 상실과 임금 하락의 이중고를 겪을 수 있다"고 지적합니다. 특히 최고 수준의 교육을 받은 계층에게는 AI가 생산성 향상과 새로운 기회를 제공하는 반면, 저숙련 노동자는 자동화 기술의 영향을 직접적으로 받을 가능성이 크기 때문입니다.
광고
경제협력개발기구(OECD)의 2024년 보고서 'AI and the Future of Skills'는 AI 도입이 숙련도에 따른 임금 격차를 최대 30%까지 확대할 수 있다는 전망을 내놓았습니다. 한국에서도 이러한 시각은 중요합니다. 디지털 전환이 국가 전체의 생산성을 높이는 과정에서, 소외 계층을 관리하지 못하면 사회 구조의 균열이 더 심화될 수 있는 현실적 위험이 있기 때문입니다.
특히 한국은 OECD 회원국 중 소득 불평등 증가 속도가 빠른 국가 중 하나로, AI 시대의 포용적 성장 전략이 더욱 절실한 상황입니다. 한편, 사회적 소외 문제를 해소할 가능성도 AI의 밝은 측면이라 할 수 있습니다. LSE 칼럼은 AI가 의료 데이터 분석과 같은 분야에서 특수한 기술 접근성을 제공하며, 특히 고령자나 장애인 등 특정 계층에게 이전보다 확장된 기회를 열어줄 잠재력을 가지고 있다고 분석합니다.
광고
저자들은 "AI 기반 보조 기술은 시각장애인을 위한 이미지 인식, 청각장애인을 위한 실시간 자막 생성, 거동이 불편한 고령자를 위한 음성 인터페이스 등을 통해 디지털 포용성을 크게 향상시킬 수 있다"고 강조합니다.
경제지표 이외의 AI 활용 효과를 측정해야 하는 이유
예를 들어, 국내에서도 AI 기반 원격 의료 서비스가 의료 접근성이 낮은 지역에서 시범 운영되고 있으며, 서울대학교병원과 분당서울대병원이 개발한 AI 진단 보조 시스템은 2024년부터 일부 보건소에 도입되어 활용되고 있습니다. 또한 공공 서비스 효율화는 AI를 통해 폭넓은 개선 가능성을 보여주는 또 다른 영역입니다.
행정안전부는 2025년 'AI 기반 민원 처리 시스템'을 전국 지방자치단체에 확대 보급하여 민원 처리 시간을 평균 40% 단축시켰다고 발표했습니다. 이는 시민사회와의 협력을 통해 더욱 발전할 가능성이 있으며, 정부, 기업, 비영리 조직 간의 삼중 협력을 통해 달성할 수 있는 중요한 영역입니다.
LSE 칼럼이 특히 주목하는 부분은 AI가 개인의 정신 건강과 사회적 자본에 미치는 영향입니다.
광고
저자들은 "AI 알고리즘이 소셜 미디어 콘텐츠를 큐레이션하고, 개인화된 정보를 제공하며, 온라인 상호작용을 중재하는 방식은 개인의 심리적 웰빙과 사회적 연결성에 직접적인 영향을 미친다"고 지적합니다. 특히 추천 알고리즘이 만드는 '필터 버블' 현상은 정보의 편향성을 강화하고 사회적 양극화를 심화시킬 수 있다는 우려가 제기됩니다.
실제로 미국 스탠퍼드 대학교의 2025년 연구는 AI 기반 소셜 미디어 사용이 청소년의 불안 및 우울 증상과 상관관계가 있음을 데이터로 입증했습니다. 한국에서도 청소년의 스마트폰 과의존율이 37%를 넘어서며(여성가족부, 2025), AI 알고리즘이 만드는 디지털 환경이 정신 건강에 미치는 영향에 대한 사회적 관심이 높아지고 있습니다.
이는 단순히 개인의 문제를 넘어 커뮤니티의 사회적 자본, 즉 신뢰와 협력의 네트워크가 어떻게 형성되고 유지되는지에 대한 근본적인 질문을 던집니다. 그러나 반론도 존재합니다. 일부에서는 AI 기술 발전이 정책적, 윤리적 논의보다 너무 앞서가고 있다는 우려가 제기되고 있습니다.
이미 기술적인 발전은 빠르게 이루어지고 있음에도 불구하고, 각국의 법적 및 윤리적 기반은 이를 충분히 따라잡지 못하고 있다는 비판이 지속되고 있죠. 반론 중 대표적인 사례로는 개인정보 보호와 데이터 윤리 문제가 있습니다. 인공지능의 의사결정 과정은 여전히 '블랙박스'로 불리며, 일반 대중들에게는 그 결과가 어떻게 도출되는지 알기가 어렵습니다.
MIT 미디어랩의 조이 이토(Joi Ito) 전 소장은 "AI 시스템의 불투명성은 민주적 책임성의 원칙과 충돌한다"며 "알고리즘의 설명 가능성(explainability)은 선택이 아닌 필수"라고 강조한 바 있습니다. 이러한 투명성의 결여는 AI 시스템에 대한 불신을 키울 수 있는 요인이 됩니다. 그러나 이를 해소하기 위한 해외 기관들의 움직임도 주목할 만합니다.
유럽연합(EU)은 2024년 3월 'AI 법안(AI Act)'을 최종 승인하며 세계 최초로 포괄적인 AI 규제 체계를 마련했습니다. 이 법안은 AI 시스템을 위험도에 따라 분류하고, 고위험 AI에 대해서는 엄격한 투명성 및 안전성 요구사항을 부과합니다.
또한 생체인식 기술의 무분별한 사용을 제한하고, AI 생성 콘텐츠에 대한 명확한 라벨링을 의무화했습니다. 한국도 2024년 '인공지능 기본법'을 제정하며 AI 윤리 원칙과 거버넌스 체계를 법제화했으나, 구체적인 이행 방안과 집행 메커니즘에 대해서는 여전히 논의가 진행 중입니다. LSE 칼럼의 가장 중요한 기여는 AI의 사회적 영향을 측정하는 새로운 방법론을 제안한다는 점입니다.
저자들은 "경제적 지표만으로는 AI가 사회에 미치는 전체적인 영향을 파악할 수 없다"며, "사회적 웰빙 지표, 디지털 포용성 지수, 커뮤니티 건강도, 신뢰 및 사회적 자본 측정치 등 다양한 비경제적 지표를 통합한 평가 프레임워크가 필요하다"고 주장합니다. 이들은 구체적으로 AI 시스템 도입 전후의 사회적 연결성 변화, 정보 접근성의 형평성, 의사결정 과정의 투명성, 그리고 취약 계층에 대한 영향 등을 정량적으로 측정하는 방법을 제시합니다.
사회적 공정성과 지속가능성을 위한 AI 정책 제언
이러한 접근은 국제기구들에서도 주목받고 있습니다. OECD는 2023년 'AI 원칙(AI Principles)' 업데이트를 통해 AI의 사회적 영향 평가를 강화했으며, UN은 2024년 'AI for Good' 이니셔티브를 통해 AI가 지속가능발전목표(SDGs) 달성에 기여하는 방식을 측정하는 글로벌 프레임워크를 개발하고 있습니다.
한국도 이러한 국제적 흐름에 발맞춰 AI의 다면적 영향을 체계적으로 모니터링하고 평가하는 시스템을 구축할 필요가 있습니다. 이 시점에서 우리는 한국의 기술 리더십에 대해 돌아볼 필요가 있습니다. AI는 산업 경쟁력과 경제 성장에서 새로운 기회를 열어갈 가능성이 높지만, 동시에 그 영향을 전반적으로 포괄적으로 측정하는 방법론이 필요합니다.
이는 단순히 기술적 효율성을 넘어 사회적 가치와 지속 가능성을 중심에 두는 새로운 거버넌스를 요구합니다. 과학기술정보통신부는 2025년 'AI 영향 평가 가이드라인'을 발표하며 공공부문 AI 도입 시 사회적 영향을 사전 평가하도록 권고했으나, 민간 부문으로의 확대와 구체적인 평가 지표 개발은 아직 초기 단계입니다. 예컨대, 국가적 차원에서 AI 관련 데이터 관리 체계를 강화하고, 공정한 디지털 전환을 위한 윤리적 가이드라인을 수립하는 일은 선택이 아닌 필수입니다.
서울대학교 AI 정책 이니셔티브의 이경전 교수는 "한국은 AI 기술 개발과 적용에서는 선두권이지만, AI의 사회적 영향을 체계적으로 평가하고 관리하는 시스템은 아직 미흡하다"며 "기술 중심적 접근에서 벗어나 인간과 사회 중심의 AI 거버넌스를 구축해야 한다"고 강조합니다. 또한 카이스트 김진형 명예교수는 "AI 윤리는 선언적 원칙에 그쳐서는 안 되며, 실질적인 영향 평가와 모니터링 체계로 구현되어야 한다"고 지적합니다. 민간 부문에서도 변화의 움직임이 감지됩니다.
네이버와 카카오 등 주요 AI 기업들은 2025년부터 '알고리즘 영향 평가 보고서'를 자발적으로 공개하기 시작했으며, 삼성전자는 AI 제품 개발 시 '인간 중심 AI 원칙'을 적용하는 내부 프로세스를 구축했습니다. 그러나 여전히 대부분의 기업들은 AI의 경제적 효과에만 집중하고 있으며, 사회적 영향에 대한 체계적 평가는 부족한 실정입니다. 결론적으로, 우리는 AI의 사회적 영향을 바라볼 때 더욱 심층적이며 인간 중심적인 접근이 필요합니다.
AI는 단순히 기술적 성장의 도구를 넘어 우리의 사회 구조와 공동체에 깊이 스며들고 있습니다. LSE 칼럼이 제시하는 것처럼, 경제적 지표만으로는 포착할 수 없는 AI의 다면적 영향—고용의 질적 변화, 사회적 불평등, 정신 건강, 커뮤니티의 사회적 자본, 디지털 포용성—을 종합적으로 평가하고 관리하는 시스템이 시급히 요구됩니다. 그렇다면 이 질문을 남기며 마무리하고자 합니다.
"AI라는 거대한 혁신의 물결 속에서 한국은 어떻게 사회적 공정성과 인간 중심적 미래를 설계할 것인가?" 단순히 AI 기술 선도국에 머무르지 않고, AI가 만드는 사회적 변화를 선제적으로 측정하고 관리하며, 모든 구성원이 그 혜택을 공정하게 누릴 수 있는 포용적 AI 생태계를 구축하는 것이 한국이 직면한 핵심 과제입니다. 앞으로 체계적인 논의와 정책적 통찰, 그리고 다양한 이해관계자 간의 협력을 통해 AI 시대의 방향성을 바로잡는 것이 우리 세대의 중요한 책임이 될 것입니다.
김도현 기자
광고
[참고자료]
blogs.lse.ac.uk










