
“말보다 시선이 먼저 말해준다”
한 살배기 아이가 엄마 얼굴을 보고 웃는다. 하지만 어떤 아이는 같은 순간, 엄마 대신 벽의 패턴을 오래 응시한다. 그 작은 시선의 차이가 자폐의 첫 신호일 수 있다. 미국 예일대 의대 연구팀은 2023년 Nature Medicine에 발표한 논문에서 “AI가 아기의 시선 움직임만으로 자폐 위험을 80% 정확도로 예측했다”고 밝혔다. 이는 인간이 인식하기도 전에, AI가 ‘비언어적 신호’를 읽는다는 의미다. 이제 의학은 ‘AI가 감정을 이해할 수 있을까?’라는 질문을 단순한 기술의 문제가 아니라, 인간의 마음을 조기에 발견하는 도구로 재정의하고 있다.
자폐 진단의 가장 큰 문제는 ‘시간’이다
자폐스펙트럼장애(ASD)는 뇌 발달 과정에서 사회적 상호작용과 의사소통 기능이 비정상적으로 형성되는 상태다. 문제는 이 증상이 3세 이후에야 명확하게 드러난다는 것이다. 미국 질병통제예방센터(CDC)에 따르면 자폐 아동의 평균 진단 연령은 4.2세, 치료 개입은 5세 이후에 이루어진다. 이미 뇌의 시냅스가 대부분 형성된 뒤다. 이 시차가 치명적이다. 뇌 발달의 결정적 시기(생후 0~2세)에 개입하지 못하면 사회성 회복률이 절반 이하로 떨어진다. (JAMA Pediatrics, 2023) 그래서 지금, 세계의 과학자들은 묻는다. “AI가 사람보다 먼저 ‘마음의 이상 신호’를 알아차릴 수 있을까?”
AI가 ‘마음을 읽는’ 방법들
(1) 시선 추적 기반 진단 — Nature Medicine, 2023
예일대 AI 연구팀은 영유아의 눈동자 움직임 데이터를 딥러닝 모델에 학습시켰다. 자폐 아동은 사람 얼굴보다 움직이는 사물이나 패턴을 더 오래 응시하는 경향을 보인다. AI는 이 시선 패턴의 차이를 6개월 시점부터 감지했다. 그 정확도는 82.6%, 인간 전문가의 진단 정확도를 초과했다. 결론: “AI는 아이가 말을 배우기 전, ‘눈의 언어’로 자폐의 가능성을 읽는다.”
(2) 뇌파(EEG) 분석 기반 조기 예측 — Science Advances, 2024
MIT와 하버드 공동연구팀은 뇌파 데이터를 학습한 AI 모델을 통해 6개월~18개월 아기의 EEG 패턴에서 비정상적 연결망 신호를 탐지했다. 이 알고리즘은 1세 이전에 자폐 발병 위험을 예측할 수 있었다. AI는 인간이 구분하기 어려운 미세한 뇌파 변동(μV 단위)을 읽어냈다. 이는 자폐의 신경생리적 특징이 언어·행동보다 먼저 나타난다는 사실을 뒷받침한다.
(3) 표정·음성 패턴 분석 — The Lancet Digital Health, 2024
AI는 단지 데이터 분석에 그치지 않는다. MIT Media Lab 연구진은 자폐 아동의 미세 표정, 목소리 높낮이, 대화 템포를 분석해 “사회적 반응성 지수(Social Responsiveness Index)”를 계산했다. 그 결과, AI의 분석 결과는 임상 심리검사와 93% 일치율을 보였다. 즉, AI는 표정의 근육 움직임 0.1초 차이로 “감정 공감이 어려운 아이”를 식별할 수 있다.
(4) 통합 데이터 기반 진단 플랫폼 — Nature, 2024
미국 NIH와 구글 헬스가 공동 개발한 시스템은 영상, 음성, 생리, 행동 데이터를 통합 분석해 ‘자폐 위험 스코어’를 생성한다. 현재 임상시험 중이며, 2세 미만 영유아 대상 비침습적 조기 진단 기술로 주목받고 있다. AI는 이제 “의사가 놓치는 순간의 신호”를 기억하고, “감정이 아닌 데이터로 마음을 이해하는 시대”를 열고 있다.
기술, 윤리, 그리고 부모의 시선
AI 자폐 진단은 분명 혁신이다. 그러나 ‘기계가 마음을 읽는다’는 말은 여전히 낯설다.
(1) 기술적 한계
AI는 “자폐인지, 내향적 성향인지” 구분하기 어렵다. 문화적 차이, 언어적 다양성에 대한 학습이 아직 충분치 않다. (Frontiers in Human Neuroscience, 2024)
(2) 윤리적 논쟁
아기의 데이터를 AI가 분석하는 것에 대한 개인정보 보호 문제 조기 진단으로 인한 부모의 불안·낙인 위험(The Lancet Child & Adolescent Health, 2024)
(3) 부모의 기대와 현실
많은 부모들은 “AI가 조기에 알려주면 좋겠지만, 그 결과가 아이의 미래를 결정짓는 낙인이 되어선 안 된다”고 말한다. AI는 결국 ‘예측의 도구’이지 ‘판결의 도구’가 아니다. 진단은 인간과 기술이 함께 내려야 하는 결정이다.
AI는 의사가 아닌 ‘조력자’이다
MIT 글로리아 최 교수는 인터뷰에서 이렇게 말했다. “AI는 인간의 직관을 대체하는 것이 아니라, 보이지 않는 신호를 보여주는 현미경이다.” AI는 자폐의 원인을 치료하지는 못한다. 하지만 치료의 타이밍을 앞당기고, 개입의 질을 높인다. AI 시선 분석 진단을 활용한 아이들의 조기 개입군은 5세 이후 행동 개선률이 2.3배 향상되었다. (JAMA Pediatrics, 2024) 조기 진단군의 언어 발달 속도는 1.8배 빠르고, 사회적 상호작용 빈도는 2배 증가했다. 즉, AI는 마음을 ‘읽는 기계’가 아니라, 회복의 시기를 앞당겨주는 도구다.
기술이 인간의 공감을 배울 수 있을까?
AI가 자폐 아동의 시선과 표정을 읽는 시대. 그러나 진짜 질문은 기술이 아니라 우리의 태도다. AI가 ‘비언어적 신호’를 해석할 수 있다면, 인간은 ‘비판적 신호’를 넘어 이해의 신호를 보낼 준비가 되어 있는가? 자폐의 조기 진단은 기술의 성취이자, 우리 사회가 ‘다름을 조기에 포용할 수 있는가’를 묻는 도전이다. AI가 읽는 마음은 결국, 인간이 잊고 있던 공감의 언어를 되돌려주는 거울일지도 모른다.








