로봇도 감정을 느낄 수 있을까

윌 스미스 주연의 과학(SF) 영화 ‘아이, 로봇’에는 자아를 가진 로봇이 나온다. 지능이 뛰어날 뿐 아니라 감정도 이해하는 능력을 갖췄다. 과연 로봇이 감정을 느낄 수 있을까. 인공지능(AI) 기술이 발달하면서 인간에 가까운 로봇이 잇따라 등장했다. 사람의 표정을 모방해 여러 감정을 표현하는 로봇이 개발됐고, 얼굴에 손을 대면 뿌리치는 로봇까지 등장했다. 사람의 감정을 읽고 이에 맞춰 환자를 돕는 로봇도 개발 중이다. 과학계는 인간을 뛰어넘을 로봇이 등장할지 기대와 함께 우려의 시선도 보내고 있다.

◇개인 공간 침범하자 회피 반응

영국 로봇 기업인 엔지니어드 아츠는 지난 23일 휴머노이드(인간형) 로봇 ‘아메카(Ameca)’의 시험 장면을 유튜브에 공개했다. 아메카는 연구진의 손가락 움직임에 따라 시선을 움직였다. 연구진이 손가락을 로봇 얼굴에 가까이하자 처음에는 뒤로 얼굴을 뺐다. 이후 다시 연구진이 로봇의 코에 손을 대자 아메카는 손을 들어 연구진의 손을 뿌리쳤다. 엔지니어드 아츠는 “아메카는 사물이 ‘개인 공간’에 들어오면 반응한다”라고 설명했다.

아메카는 인간과 상호작용하는 로봇으로 개발되고 있다. 사람과 비슷한 몸체를 가지고 있고 AI가 적용됐다. 회사가 공개한 다른 영상에서 아메카는 눈을 깜박이고 미소와 놀란 표정도 짓는다. 손동작도 함께해 진짜 사람처럼 보인다. 회사는 “아메카는 현재 걸을 수 없지만 걷는 버전도 개발 중”이라며 “로봇의 성능을 향상할 수 있도록 설계했다”고 밝혔다.

이 업체는 아메카 이외에도 감정을 표현할 수 있는 또 다른 로봇 ‘메스머(Mesmer)’도 개발했다. 연구진은 3D(입체) 스캔으로 사람의 머리뼈 구조, 피부 등을 구현했다. 22개의 구동기가 사람처럼 눈과 입을 움직일 수 있도록 돕는다. 엔지니어드 아츠는 내년 1월에 개최되는 최대의 가전 전시회인 CES 2022에서 아메카와 메스머를 전시할 계획이다.

◇기쁨·슬픔 등 6가지 감정 모방

로봇의 감정 표현도 다양해지고 있다. 기존 로봇은 재질이 딱딱하고 부품이 커서 표정과 같은 미세한 동작을 구현하지 못했다. 미국 컬럼비아대 연구진은 지난 5월 ‘로봇공학과 자동화 국제 콘퍼런스(ICRA)’에서 사람의 표정을 따라 하는 상반신 로봇 ‘에바(EVA)’를 발표했다.

에바는 사람의 얼굴에 나타난 기쁨과 슬픔·놀라움·분노·혐오·공포 등 6가지 감정을 따라 할 수 있다. 연구진은 사람의 얼굴에 있는 작은 근육 42개를 모방하는 인공 근육을 만들었다. 그리고 AI를 이용해 로봇이 스스로 표정을 지을 수 있도록 학습시켰다. 아직은 모방 수준으로 스스로 표정을 지어 의사소통하는 단계는 아니다. 연구진은 앞으로 직장·병원·학교·가정에서 로봇이 사람의 표정이나 몸짓을 읽고 그에 맞춰 반응할 수 있을 것이라고 기대했다.

로봇이 감정을 읽을 수 있으면 사람을 훨씬 잘 도울 수 있다. 이탈리아 피사대 연구진은 사람의 감정에 따라 반응하는 로봇 ‘아벨(Abel)’을 개발했다. 12세 소년의 모습을 한 아벨은 여러 센서를 통해 사람의 음성, 심장박동수, 피부의 열변화를 포착한다. 이를 통해 사람의 감정을 추론할 수 있다. 아벨은 감정에 맞춰 인공 피부 밑에 배치된 20여 구동기로 다양한 표정을 만들어 낸다. 연구진은 “로봇으로 사람의 정신과 감정 상태를 건강하게 유지할 수 있다”라며 “자폐증이나 알츠하이머 환자에게 도움이 되길 희망한다”라고 했다.

연구진의 다음 목표는 현재 컴퓨터 기반 센서를 오가노이드(인공장기) 형태로 로봇에 적용하는 것이다. 피사대 생명공학과 아르티 아울루왈리아 교수는 “우리의 목표는 아벨에게 인간의 뇌와 동시에 유기체들이 실제로 상호작용할 수 있는 몸을 주는 것”이라고 말했다.