“사람의 감정을 느끼는 컴퓨터”라는 말은 이제 더 이상 공상과학의 영역이 아니다. MIT 미디어랩에서는 ‘감성 컴퓨팅(Affective Computing)’이라는 새로운 연구 분야를 통해, 인간의 감정을 인식하고 반응하는 컴퓨터 기술을 현실로 만들고 있다. 이 연구를 이끄는 로잘린드 피카드(Rosalind Picard) 교수는 “진정한 지능은 감정을 이해하는 능력에서 출발한다”고 강조하며, 컴퓨터가 인간의 감정적 신호—음성, 표정, 생체 반응—를 읽고 공감할 수 있는 시스템을 개발해왔다.
MIT 연구팀은 이러한 감성 컴퓨팅의 일환으로, 사용자의 감정 상태에 따라 반응하는 애니메이션 캐릭터나 음성 비서형 인터페이스를 실험 중이다. 이들은 가정 내 학습 보조교사, 개인 운동 코치, 정신건강 모니터링 등 일상생활 속 인간 친화적 AI를 구현하는 데 주력한다. 실제로 Empatica와 Affectiva 같은 MIT 출신 스타트업은 웨어러블 센서를 통해 스트레스나 감정 상태를 감지하거나, 얼굴 표정과 음성 톤으로 사용자의 기분을 분석하는 상용 기술을 선보이고 있다.
한편, 최근 인터넷에서는 ‘로라(LoRA)’라는 이름이 또 다른 AI 기술과 연관되어 주목받고 있다. 그러나 이 로라는 MIT의 감정 인식 컴퓨터와는 전혀 다른 존재다. ‘Low-Rank Adaptation’의 약자인 LoRA는 AI 이미지 생성 모델인 Stable Diffusion에서 사용되는 경량화된 학습 모듈을 의미한다. 즉, 감정을 느끼는 AI가 아니라 그림을 배우는 AI다.
LoRA 기술은 기존 대형 모델의 일부만을 조정하여, 특정 캐릭터나 스타일을 학습시키는 방식으로 작동한다. 예를 들어, 사용자가 애니메이션 캐릭터나 특정 화풍을 훈련시킨 LoRA를 적용하면, AI는 그 스타일을 그대로 반영한 이미지를 손쉽게 만들어낸다. DreamBooth보다 가볍고 빠르며, 보통 사용자도 손쉽게 활용할 수 있다는 점에서 AI 예술 커뮤니티에서 폭발적 인기를 얻고 있다.
결국 ‘로라’라는 이름 아래 두 개의 AI가 공존하고 있다. 하나는 인간의 감정을 이해하려는 ‘감성적 AI(Emotional AI)’이고, 다른 하나는 예술적 표현을 학습하는 **창조적 AI(Generative AI)**다. 전자는 인간의 마음에 공감하려 하고, 후자는 인간의 미학을 재현하려 한다.
미래의 인공지능은 이 두 방향의 결합점에서 진화할 것이다. 감정을 인식하며 동시에 창조할 수 있는 AI — 즉, 인간의 마음을 읽고 그 감정을 예술로 표현하는 존재가 등장할지도 모른다. 기술이 감정과 예술의 경계를 허물고 있는 지금, 인간이 진정으로 준비해야 할 것은 ‘기술의 발전’이 아니라 ‘감정의 윤리’일지도 모른다.
출처: 한국과학기술정보연구원, MIT 미디어랩, 엔트뉴스 종합









