“일반 인공지능(AGI·Artificial General Intelligence)과 인간의 관계는 인간이 동물을 대하는 방식과 비슷할 겁니다. 인간이 동물을 미워하진 않죠. 그렇다고 고속도로를 만들 때 우리가 그곳에 있는 동물들에게 동의를 구하진 않잖아요?”
일리야 수츠케버 오픈AI 이사(최고 과학자)는 지난 8월 방영된 BBC 다큐멘터리 ‘i휴먼’에 출연해 인간과 동등한 기능을 수행하는 고성능 AI ‘AGI’의 출현이 “인류에게 혜택일지 모르겠다”고 했다. 그는 “나는 AGI가 아주 빠른 시일 내 나타날 것이라 보며, 당장 대비를 시작해야 한다고 믿는다”고 했다.
22일(현지 시각) 5일 천하로 끝난 샘 올트먼 오픈AI 최고 경영자(CEO) 축출 사태를 주도했던 수츠케버는 단 한 번도 구체적인 이유를 설명하지 않았다. 다만 실리콘밸리 AI 업계에선 ‘급진적 AI 상업화에 나서는 올트먼을 자신이 멈춰 세워야 한다고 생각했을 것’이라는 분석이 나온다. 그는 오픈AI 직원 전체가 사표를 내겠다며 사태가 커지자, 돌연 올트먼 복귀를 지지하는 쪽에 섰다. 오픈AI의 공중분해는 막겠다는 이유였다.
수츠케버와 접점이 있는 사람들은 그에 대해 ‘말도 안 되게 똑똑하고 착한 사람’이라고 표현한다. ‘오픈AI 개발자 700명보다 수츠케버 한 사람이 더 뛰어나다’는 평을 들을 정도로 AI 개발 능력이 뛰어난 데다, 종교적인 신념으로 AI가 인류에게 미칠 위협을 우려한다는 것이다. 그는 “지금 AI 개발 속도가 10이라면, 우리는 1이나 2 정도 속도로 AI를 개발해야 한다”고도 말한 적 있다.
그는 2002년 ‘딥러닝의 아버지’ 제프리 힌턴 교수가 있는 토론토대에 진학했다. 힌턴 교수 밑에서 컴퓨터 과학 박사과정을 지낸 그는 오늘날 딥러닝의 시초로 불리는 ‘알렉스넷’ 개발에 참여했고, 그 후 구글에 채용돼 바둑 AI ‘알파고’ 개발을 주도했다. 현재 AI 시대를 연 주요 장면마다 그가 있었던 것이다.
구글에서 승승장구하던 수츠케버를 빼낸 것은 일론 머스크 테슬라 CEO였다. ‘안전한 AI의 발전’을 모토로 삼은 비영리 재단 ‘오픈AI’를 구상한 머스크에게 AI 안전에 관심이 많은 수츠케버는 빠져서는 안 되는 핵심 인재였다. 머스크는 수츠케버에게 “구글은 전 세계 AI 연구자 3분의 2를 보유하고 있지만, 안전에는 신경 쓰지 않는다”며 회유했다.
하지만 21일 올트먼 CEO가 오픈AI로 전격 복귀하게 되면서, 수츠케버가 지키려던 ‘AI 안전 개발’ 이념은 요원해질 것으로 보인다. 와이어드는 “이사회에서도 잘리고, 명분도 지키지 못한 수츠케버가 이번 사태 최고의 루저(패배자)”라고 했다.
글로벌 정책 결정자들 사이에선 ‘AI 개발에 대한 국가적 개입을 강화해야 한다’는 목소리가 나온다. 21일 로이터통신에 따르면 강력한 AI 규제법을 제정하고 있는 유럽연합(EU)에선 오픈AI 사태 이후 AI 기술 기업에 자율 규제를 어느 정도 허용해야 할지 논의가 시작됐다. 핵무기처럼 위험한 AI 기술을 개발하는 기업에서 내부적으로 반란이 일어나고, 이 회사가 보유한 중요 데이터와 기술이 어디로 흘러갈지 모르는 불안정한 경우가 재연돼서는 안 된다는 것이다.
AI 개발 기업의 투명성을 요구하는 목소리도 높아지고 있다. CNN은 “AI 기업들이 하는 일 대부분은 경쟁을 막기 위해 비밀로 유지된다” 며 “오픈AI가 조용히 챗GPT 같은 폭탄급 기술을 만들어낸 것도, 투자자들과 상의 없이 CEO를 그대로 잘라 버릴 수 있는 것도 모두 바람직하지 않다”고 지적했다. AI 개발 기업들이 블랙박스 같은 자체 규율로 돌아가게 놔둬선 안 된다는 것이다.