15년 동안 말을 하지 못하던 뇌졸중 환자가 인공지능(AI)의 도움을 받아 자신의 생각을 문장으로 전환하는 데 성공했다. 이전에도 비슷한 실험이 있었지만 언어기능이 손상된 환자에 적용한 것은 이번이 처음이다.
미국 샌프란시스코 캘리포니아대(UC샌프란시스코)의 에드워드 창 교수 연구진은 14일(현지 시각) 국제 학술지 ‘뉴 잉글랜드 저널 오브 메디슨(NEJM)’에 “뇌졸중 환자가 말을 하려고 할 때 뇌에서 나오는 전기신호를 문장으로 전환했다”고 밝혔다.
◇마비 환자의 문장 작성 속도 4배 빨라져
환자는 말을 하는 데 필요한 근육을 조절하지 못해 그 동안 기계의 도움을 받아 의사소통을 했다. 팔다리도 마비돼 머리만 조금 움직여 컴퓨터 화면에 뜬 단어를 선택하는 방식이었다. 환자는 이렇게 1분에 다섯 단어 정도를 표현할 수 있었다.
이번에 뇌졸중 환자는 뇌에 부착한 전극과 인공지능의 도움으로 1분에 18 단어를 말할 수 있었다고 연구진은 밝혔다. 이는 지난 5월 스탠퍼드대 연구진이 뇌신호로 문장을 만든 속도와 비슷하다. 당시 연구진은 마비 환자가 글자를 쓰려고 생각할 때 나오는 뇌신호로 문장을 만들었다.
창 교수 연구진은 뇌졸중 환자의 뇌에서 언어기능을 담당하는 감각운동피질에 신용카드 크기의 얇은 전극을 부착했다. 이후 환자에게 컴퓨터 화면에 제시한 50단어 중 하나를 제시하고 바로 그 단어를 말해보라고 했다. 당연히 음성은 나오지 않지만 언어 영역의 뇌에서 나오는 전기신호는 달라졌다.
인공지능은 단어마다 달라지는 환자의 뇌신호 형태를 스스로 터득했다. 연구진은 인공지능을 돕기 위해 문장에서 특정 단어 뒤에 어떤 단어가 나올 가능성이 큰지 예측하는 자연어 모델도 추가했다.
실험 결과 뇌졸중 환자의 뇌신호로 만든 문장은 단어 중 25%만 틀렸다. 샌디에이고 주립대의 스테파니 리에-코르누 교수는 사이언스지 인터뷰에서 “컴퓨터가 무작위로 단어를 선택하면 오류 비율이 92%나 된다는 점에서 엄청난 성과”라고 평가했다.
◇페이스북, 구글도 뇌신호 해독 경쟁
리에-코르누 교수는 “영어를 쓰는 일반인이 1분에 120~180 단어를 말해 두 연구 모두 갈 길이 멀다”면서도 “뇌졸중 환자가 머리 움직임으로 문장을 만드는 것보다는 훨씬 속도가 빨라졌다”고 말했다. 창 교수 연구진은 앞으로 인공지능이 해독하는 단어 수를 더 늘리고, 뇌신호를 무선으로 받을 수 있도록 하겠다고 밝혔다.
창 교수는 지난 2019년 네이처에 처음으로 인공지능이 뇌신호로 문장을 만들었다고 발표했다. 당시 연구진은 미국 소셜미디어업체 페이스북의 지원을 받아 뇌전증(간질) 환자 3명의 뇌에 우표 크기의 사각형 전극 2개를 이식했다. 그 상태에서 여러 질문에 대해 답을 크게 말하도록 했다. 이때 나오는 뇌신호를 인공지능이 해독해 문장으로 바꾼 것이다.
인공지능은 목소리를 듣지 않고, 뇌신호만 보고 어떤 질문을 받고, 어떤 답을 했는지 각각 76%, 61% 정확도로 맞혔다. 이번 연구는 실제로 말을 하지 못하는 뇌졸중 환자도 같은 방법으로 도움을 받을 수 있음을 입증한 것이다.
실제로 IT(정보기술) 업체들은 인공지능을 이용해 마비 환자가 자신의 생각을 마음대로 표현할 수 있는 기술을 개발하고 있다. 창 교수 연구에 참여한 페이스북은 앞으로 전극을 이식하지 않고 뇌신호를 포착해 생각대로 증강현실(AR) 기기에 문장을 입력하고 검색하는 기술을 개발하겠다고 밝혔다.
일론 머스크가 투자한 바이오 기업 뉴럴링크도 뇌에 칩을 이식하고 컴퓨터와 연결하는 연구를 하고 있다. 뉴럴링크는 지난 4월 뇌에 칩을 이식한 원숭이가 생각만으로 비디오 게임을 하는 영상을 공개했다.