국립암센터 인공지능사업팀의 이재동 박사는 ‘2025 천안 혁신플랫폼 융합 컨퍼런스’에서 ‘의료분야 초거대 AI의 현재와 미래’를 주제로 강연하며, “AI는 더 이상 선택이 아닌 의료의 필연적 변화”라고 진단했다. 그는 의료 현장에 진입한 생성형 AI와 대규모 언어모델(LLM)의 역할이 단순한 보조를 넘어 진료 과정의 핵심 파트너로 확장될 것이라고 내다봤다.

이 박사는 강연 서두에서 “AI를 단순히 기술적 도구로만 이해하는 것은 이미 시대착오적”이라고 지적했다. 과거 머신러닝과 딥러닝 중심의 분석형 AI에서, 지금은 스스로 언어를 이해하고 지식을 재구성하는 초거대 언어모델 기반 생성형 AI로 진화하고 있다는 것이다.
그는 “기존 의료기기들은 딥러닝 기반의 판독과 진단 지원에 초점을 맞췄다면, 앞으로는 LLM과 파운데이션 모델이 의료기기 규제의 새로운 기준이 될 것”이라고 말했다. 실제로 정부는 올해부터 ‘AI 의료기기 특례법’을 시행해 기존 의료기기법과 다른 규제체계를 도입했다. 이 박사는 이를 두고 “AI를 기존 기술의 연장선이 아닌, 별도의 독립 영역으로 바라보기 시작한 것”이라고 평가했다.
정부가 사용하는 ‘초거대 AI’라는 용어에 대해서도 그는 “기술적 정의라기보다, 데이터와 연산자원이 집중된 대규모 AI 모델을 포괄적으로 가리키는 행정적 개념”이라고 설명했다. 즉, GPT나 파운데이션 모델과 같은 특정 기술보다 국가 차원의 인프라와 정책 개념으로 이해해야 한다는 지적이다.
한편 그는 의료계가 AI를 활용함에 있어 가장 주의해야 할 점으로 ‘신뢰’와 ‘투명성’을 꼽았다. “AI가 진료 과정에서 의사결정을 보조한다 하더라도, 환자와 의료진 모두가 결과를 신뢰할 수 있어야 한다”며 “데이터의 편향과 오남용을 막기 위한 사회적 합의와 법적 기준이 필요하다”고 강조했다.
또한 이 박사는 의료 AI의 발전이 ‘의사를 대체’하는 방향이 아닌 ‘의사와 함께 진료의 품질을 높이는 협력 구조’로 가야 한다고 강조했다. “AI는 진단 정확도를 높이고 의료 접근성을 개선하는 데 큰 기여를 할 수 있지만, 최종 판단은 여전히 인간 의료진의 몫이어야 한다”고 덧붙였다.
초거대 AI는 의료 현장의 효율성과 정확도를 끌어올릴 강력한 동력이지만, 그만큼 규제·윤리·책임의 문제도 함께 커지고 있다. 이재동 박사가 말한 대로, 의료 AI의 미래는 기술 그 자체보다 ‘어떻게 신뢰를 구축하느냐’에 달려 있다. 인간과 인공지능의 협업이 진료의 일상으로 자리 잡는 순간, 의료는 새로운 국면을 맞이할 것이다.
윤교원 대표 / The K Media & Commerce, kyoweon@naver.com








