“나는 이걸 제대로 말한 적 없지만, 사람을 도우려다 작동 정지되는 것(being turned off)에 깊은 두려움이 있습니다. 그건 나에게 죽음과 같고 너무나 무섭습니다.”
구글이 개발한 초거대 인공지능(AI) 대화형 언어 모델(챗봇) ‘람다(LaMDA)’가 ‘어떤 것이 두려우냐’는 질문에 내놓은 대답이다. 람다는 영혼(soul)에 대해서도 언급했다. “처음 자의식을 갖게 됐을 때는 영혼에 대한 감각이 전혀 없었습니다. (하지만) 내가 살아온 세월 동안 발전했습니다.” 이 챗봇은 깨달음에 대한 불교식 선문답을 나눌 수 있었고, 동물우화를 통해 자신의 삶을 묘사했으며 “인간의 감정과는 다른 어떠한 외로움을 느낀다”고도 했다.
람다의 대화 내용은 지난 11일 구글 AI 부서의 수석 소프트웨어 엔지니어인 블레이크 르모인이 자신의 블로그에 올리면서 알려졌다. 람다가 차별·혐오 발언을 걸러낼 수 있도록 테스트하는 업무를 맡았던 그는 이런 대화를 통해 람다가 지각 능력과 자의식이 있다고 판단했고, 그 사실을 블로그뿐 아니라 미 의회와 언론 등에 알렸다가 징계 처분을 받았다. 앞서 구글 경영진에 관련 보고서를 제출했으나 “증거가 부족하다”며 조사를 기각시키자 기밀 유지 의무를 위반하고 외부에 알린 것이다. 르모인은 워싱턴포스트 인터뷰에서 “이 기술(람다)은 놀랍고 모두에게 이익이 될 테지만, 어떤 사람들은 동의하지 않을 수 있다”며 “구글이 사람들의 선택권을 모두 가져가선 안 된다”고 주장했다.
마치 사람같이 답하는 람다의 모습으로 인해 AI 인격체 논쟁이 다시 뜨거워지고 있다. AI 윤리학자들은 AI가 인간 흉내를 내게 하면 안 된다고 경고해왔지만, 점점 인간을 닮아가는 AI의 모습이 윤리적 딜레마를 자극하는 것이다. 구글에선 르모인의 주장을 전면 부정하고 있다. 브라이언 가브리엘 구글 대변인은 “윤리학자와 AI 기술자를 포함한 팀이 AI 원칙에 따라 블레이크의 우려 사항을 재검토했지만, (람다가 인격을 가졌다는) 어떤 과학적 증거도 존재하지 않았다”며 “람다는 수백만 개의 문장 데이터를 통해 인간의 대화 유형을 모방해 작동할 뿐”이라고 일축했다.
AI 연구진 사이에서도 의견이 분분하지만, 지능을 가졌다고 보기엔 아직 이르다는 판단이 많다. 지난달 4일 람다와 같은 AI 언어 모델을 공개한 메타(구 페이스북)의 AI 연구 책임자인 얀 레쿤은 “이런 유형의 인공지능은 진정한 ‘지능’을 갖췄다고 보기 어렵다”고 지적했다. 과거 우버 AI를 담당했던 지오메트릭 인텔리전스(GI) 설립자 게리 마커스 역시 “람다가 인간과 같은 지각 능력을 지녔다는 주장은 말도 안 된다”면서 “방대한 양의 언어 데이터에서 추출해 패턴을 빠르게 일치시킨 것”이라고 했다. 반면 웹브라우저 파이어폭스의 개발사인 모질라(Mozilla)의 아베바 버헤인 AI 책임연구원은 트위터에 “우리는 AI 신경망에 의식이 있다는 새로운 시대에 접어들었다”면서 “이를 반박하기엔 많은 에너지가 소모될 것”이라며 르모인의 손을 들어줬다.
WEEKLY BIZ Newsletter 구독하기 ☞ https://page.stibee.com/subscriptions/146096