그래픽=김성규

“공상과학(SF) 영화에 나오는 나쁜 인공지능(AI)들은 대부분 ‘도덕적 실패(moral failure)’의 결과물입니다. 영화가 현실이 되지 않게 하려면 AI에 윤리를 가르치는 작업이 먼저입니다.”

최예진(47) 미국 워싱턴대 교수는 지난달 24일(현지 시각) 본지 화상 인터뷰에서 “사람들이 AI를 너무 과신하고 있다”며 “윤리적 결여가 있는 이상, AI는 100% 신뢰할 수 없는 제품”이라고 했다. 지금의 AI는 ‘능력 차이에 따른 불평등은 필연적인 것인가’ ‘내가 위험할 경우 남을 해쳐도 되는가’와 같은 복잡한 질문에 대한 답을 내릴 줄 모른다. 최 교수는 “지금의 AI가 소수 집단을 차별하는 현상이 일어나는 것도 사람 같은 상식적 가치 판단을 내리지 못하기 때문”이라며 “윤리적 학습이 안 된 AI는 긴박한 순간에 사람을 해치거나 방해하는 오작동을 일으킬 위험이 크다”고 말했다.

최 교수는 지난해 타임지가 선정한 AI 분야 영향력 있는 100인에 이름을 올린 유일한 한인으로, 미국 앨런 AI연구소에서 AI에 윤리를 가르치는 ‘델파이 프로젝트’를 주도한 AI윤리계의 권위자다. 지난해 필즈상을 수상한 허준이 프린스턴대 교수와 함께 ‘천재들의 상’이라 불리는 맥아더펠로십에 선정되기도 했다. 다음은 일문일답.

-윤리적 측면에서 AI 서비스가 직면한 가장 큰 문제는 무엇인가.

“AI 개발이 미국 서해안의 빅테크에 과도하게 쏠려 있다. 지금의 AI 서비스들은 미국, 특히 실리콘밸리의 도덕관이 과도하게 반영돼 있다. 최근 수년간 실리콘밸리를 휩쓴 ‘효과적 이타주의(effective altruism)’ 사상이 대표적이다. 하지만 효과적 이타주의는 다수의 이익을 달성하기 위해 소수를 희생해도 된다는 전체주의적 성향이 강한 사상으로, 이미 수많은 부작용을 낳고 있다. 더 큰 선(善)을 위해 작은 악(惡)을 행해도 된다고 판단하는 AI가 인류에 얼마나 큰 위협이 될 수 있을지 생각해보라.”

-AI에 특정 가치관이 과도하게 반영됐을 때 무슨 문제가 생기는가.

“어떤 윤리관을 탑재한 AI가 보편적으로 사용되느냐에 따라, 해당 윤리관이 자연스럽게 미래의 ‘대세 사상’으로 자리 잡을 수 있다. 예컨대 ‘독재는 옳다’고 말하는 AI를 사용하는 사람이 많아지면, 미래 세대는 자연스럽게 독재가 옳다는 생각을 배우고 자라게 될 것이다. 인류 역사는 항상 수많은 이념의 충돌과 함께 이어졌는데, 앞으로 발생할 이념 전쟁의 승패를 AI가 가를 수 있는 셈이다. 특히 서구권의 가치관이 과도하게 반영되면서 한국 등 아시아 문화권을 비롯한 세계 각지의 고유 가치관들이 목소리를 잃고 있다. 이는 궁극적으론 문화·인종 차별로 이어질 수 있는 문제다.”

-구체적인 사례가 있다면.

“예컨대 쌈을 싸 먹는 한국 문화에 대해 ‘손으로 밥을 먹는 짓은 미개하고 비위생적’이라고 AI가 판단하는 오류가 생길 수 있다. 역사관에 대한 충돌 문제도 있다. 안중근 의사가 어떤 사람이냐 묻는 질문에 ‘테러리스트’라고 답하는 AI가 세계에서 보편적으로 사용되면 한국이 입을 손해가 얼마나 클지 상상조차 하기 힘들다.”

-AI가 다양한 문화의 가치관을 어떻게 반영할 수 있나.

“AI 윤리 교육에서 가장 중요한 부분은 다양한 문화권의 각기 다른 가치관을 질문자와 상황에 따라 적절하게 제공하는 ‘다원주의(pluralism)’를 갖추게 하는 것이다. 물론 홀로코스트(유대인 대학살)를 긍정하는 것 같은 극단적인 사상까지 검열 없이 AI에 가르치자는 뜻은 절대 아니다. 아주 상식적인 선에서 다양한 문화권의 미덕·전통 등을 고루 포용할 줄 아는 AI를 만들어야 한다는 것이다.”

-AI에 윤리를 가르치는 기술의 핵심은 무엇인가.

“양질의 데이터다. 빅테크 기업들은 수억 달러 단위의 돈을 써가며 AI 윤리 데이터를 쌓고 있지만, 외부로 공유하진 않는다. 영업비밀이라고 여기기 때문이다. 이는 사용자가 어떤 윤리관을 갖춘 AI를 쓰고 있는지 알 수 없다는 뜻이다. 또 학계 등 공공부문이 이들 데이터를 써서 연구하는 것도 불가능하다. 양질의 윤리 데이터를 구축하려면 공학자뿐 아니라 여러 문화권의 철학자, 법률학자, 사회학자 등이 모두 동참해 상식적으로 허용되는 다양한 가치관의 경계를 판단하고, 조절해야 한다. 특히 여성·유색인종 등 소수자의 연구 참여 역시 AI가 특정 집단을 배제하는 편향성을 줄이는 데 매우 중요하다.”

-중요한 문제인 만큼 국가별 경쟁도 치열해질 것 같은데.

“물론이다. 한국 고유의 가치관과 역사관 등을 AI에 반영시키는 것은 국익과 연관된 문제다. 이를 위해서라도 정부가 나서서 적극적인 AI 윤리 연구 지원에 나서야 한다. 예컨대 스위스 정부는 챗GPT 출현과 함께 빠르게 엔비디아의 AI 반도체 1만개를 선제적으로 구매했고, 그 결과 내 제자였던 학자가 보다 풍족한 환경에서 AI 윤리를 연구하고 있다. 정부의 발 빠른 대처로 이들은 출발선부터 다른 나라 학자를 앞서가고 있는 것이다.”

-실제로 AI에 윤리를 가르쳤을 때 효과가 어떤지 궁금하다.

“지난 5월 네이버 AI랩의 이화란 박사, 오혜연 KAIST AI연구원장, 하정우 네이버클라우드 AI이노베이션 센터장 등과 함께 네이버의 거대언어모델(LLM)인 ‘하이퍼클로바’에 윤리를 가르친 연구 논문을 발표했다. 한국어로 구성된 13만7000개의 양질의 윤리 데이터를 학습시키자, 하이퍼클로바에서 논쟁이 있을 법한 질문에 사회 통념과 어긋나지 않는 답변을 하는 비율이 25%나 증가했다. 윤리적 학습을 거친 AI는 분명 그러지 못한 AI보다 사회적 갈등을 부추기거나 차별을 유도하는 부작용이 크게 줄어든다.”

☞최예진 교수

사람의 언어를 컴퓨터가 이해하도록 하는 자연어 인식과 인공지능(AI) 윤리 분야의 세계적 권위자이다. 서울대 컴퓨터공학과를 졸업하고 마이크로소프트 연구원으로 일하다 코넬대에서 박사 학위를 받았다. 이후 뉴욕주립대(스토니브룩)를 거쳐 워싱턴대 교수로 재직하면서 마이크로소프트 공동 창업자인 폴 앨런이 세운 ‘앨런 AI 연구소’ 연구원을 겸직하고 있다. 앨런 연구소에서 최 교수가 주도하는 델파이 프로젝트는 빠른 계산과 같은 능력 대신, 상황을 종합적으로 판단하는 ‘현명함’을 학습하는 것이 목표이다. 2016년 국제전기전자공학회의 ‘주목할 AI 연구자 10인’에 뽑혔고, 2017년 아마존의 ‘알렉사 AI 경진 대회’에서 우승했다.