@주3회 발행하는 유료 뉴스레터 [스타트업]입니다. 유료 구독자는 시즌8의 12곳 스타트업 창업자 이야기와 함께 이전에 발행한 100곳 이상의 스타트업 스토리를 볼 수 있습니다. 유료 가입 https://page.stibee.com/subscriptions/158656 입니다. 무료 가입은 https://page.stibee.com/subscriptions/143087 입니다. 감사합니다.

이번 레터는 바다 건너 실리콘밸리에서 온 레터입니다. 오로라 특파원이 메타의 ‘기초 AI 연구소(FAIR)’ 창립 10주년 기념행사에 참여했습니다. 오 특파원은 여기서 얀 르쿤 메타 수석 AI 과학자(부사장) 겸 뉴욕대 교수를 인터뷰 했는데요.

르쿤은 제프리 힌턴 토론토대 교수, 요슈아 벤지오 몬트리올대 교수, 앤드루 응 스탠퍼드대 교수와 함께 ‘AI 4대 천왕’으로 불리는 석학입니다. 2013년 FAIR 설립 당시 초대 소장을 지낸 그는 2018년 힌턴·벤지오 교수와 함께 ‘컴퓨터과학의 노벨상’으로 불리는 튜링상을 수상했습니다.

하지만 최근 AI의 위험성을 두고 벌어진 ‘AI 철학 논쟁’에 있어 이들 석학의 견해는 극명하게 갈리고 있습다. 힌턴과 벤지오가 AI가 인류에게 실존적 위험이 될 것으로 보는 ‘두머(Doomer·파멸론자)’인 반면, 르쿤은 AI의 잠재력을 극대화해 인간을 도와야 한다는 ‘부머(Boomer·개발론자)’로 평가받습니다. 그가 교수이면서 메타에서 수석 과학자를 맡는 이유겠죠.

얀 르쿤은 여러 기자와 참석자들을 대상으로 한 강연과 오 기자와의 대담에서 인간 수준의 인공지능(AGI) 도달, AI의 위험성, AI 기술 개발 속도에 대한 관점과 미래 AI 기술 경쟁의 방향 등 다양한 주제에 대해 진솔하게 이야기했습니다. 쫌아는기자들에는 이제 AI 4대 구루 중 앤드류 응과 얀 르쿤까지 등장하면서 두 명의 구루가 남게 됐습니다. 힌튼과 벤지오 인터뷰까지 추진하고, AI라는 기술 주제에 대해서도 꾸준히 소식을 전하도록 하겠습니다.

아래 인터뷰는 오 기자의 녹취록을 GPT의 도움을 받아 번역했습니다. 일부 얀 르쿤 교수의 발언은 이해를 돕기 위해 질문을 첨부합니다. 또한 기사 하단엔 얀 르쿤 교수의 영어 대답 원문도 첨부합니다.

메타의 기초 인공지능 연구소(FAIR) 10주년 기념 행사에서 얀 르쿤 메타 수석 AI 과학자(오른쪽)이 AI의 미래 전망에 대해 설명하고 있다. /샌프란시스코=오로라 특파원
그래픽=이지원

◇“젠슨 황이 곧 AGI가 온다고? 그는 무기상일 뿐...인간 이기는 체스 AI 있다고 모든 것이 가능한 것은 아냐”

-AGI(인간과 비슷한 수준일 것이라 하는, 범용 인공 지능)란?

“‘범용 지능’이란 것은 없습니다. 심지어 인간의 지능도 매우 전문화되어 있습니다. 그래서 저는 ‘인간 수준의 AI’ 또는 ‘고급 기계 지능’이라고 부르는 것에 대해 이야기하는 것을 선호합니다. 이것이 우리가 부여하는 이름입니다. 네. 하지만 그것은 단지 하나의 범주일 뿐이죠. 이제, 그렇게 말했지만, 미래의 어느 시점에서는 인간보다 똑똑한 기계가 있을 것이라는 것은 의심의 여지가 없습니다. 그럼 무슨 일이 벌어질까요? 지금, 가장 낙관적인 사람들은 그것이 바로 코앞에 있다고 말합니다. ‘3년 안에 일어날 것입니다.’ 사람들이 계속 이렇게 말해왔고 계속 그렇게 말하고 있지만, 그들은 틀렸습니다.”

-젠슨 황 엔비디아 CEO는 오늘 미디어데이에서 5년 안에 AGI의 순간이 올 것이라 했습니다.

“알다시피 AI 전쟁이 있습니다. 그는 무기를 공급하고 있죠. 그래서 그는 모든 것이 계속되길 원합니다. 그래, 그러니까 단축키는 없어요; 구매해야 할 GPU가 더 많을수록 좋습니다. 저는 그게 꽤 끔찍하다고 생각하지만, 3년 안에, 5년 안에 일어날 일은 아닙니다, 알겠죠? 5년 안에 일어날 일은 우리가 아마 진전을 이룰 것입니다. 그는 인간 수준의 지능으로 가는 길을 제시할 것입니다. 하지만 우리가 먼저 얻게 될 것은 인간 수준의 지능이 아니라 고양이나 개 수준의 지능일 것입니다. 이것들에는 많은 작업과 반복이 필요합니다. 그리고 어떤 사람들이 주장하는 것처럼, 우리가 거대한 시스템을 만들어서 켜기만 하면 몇 분 안에 지구를 지배할 거라는 생각은 완전히 터무니없는 겁니다. 그건 말도 안 되는 일이죠. 그렇게 작동하지 않아요. 이건 매우 느리고 지루한 과정이며, 어려운 공학과 많은 과학이 필요합니다.

잘 모르는 사람들은 법률 시험을 통과할 수 있는 AI 시스템이 있으니 우리는 인간 지능을 갖춘 것이라고 생각할 수 있습니다. 하지만 우리에게는 우리 모두를 이길 수 있는 체스 플레이 시스템도 있습니다. 그렇다고 해서 추론할 수 있는 시스템이 있다는 뜻은 아닙니다. 이에 대한 증거는 법률 시험을 통과할 수 있는 AI 시스템이 있음에도 불구하고, 우리는 여전히 5단계 자율 주행 차량을 가지고 있지 않다는 것입니다. 어떤 십대라도 20시간의 연습으로 이를 배울 수 있습니다. 그러니 분명히 우리가 놓치고 있는 것이 매우 큽니다. 그리고 그건 단순히 운전에 관한 것뿐만이 아닙니다. 처음으로 저녁 식탁을 치우고 식기세척기에 넣으라고 10살짜리 아이에게 부탁해보세요. 그들은 한 번에 할 수 있습니다. 배울 필요가 없어요. 우리는 이런 식으로 배우는 로봇을 만드는 방법을 전혀 모릅니다.”

◇AI에 대한 공포 지나쳐...“AI를 007 영화 속 빌런처럼 그리고 있다”

-AI에 대한 공포가 지금 좀 포화상태인가요?”

“과장된 거죠, 의미가 없어요. 왜냐하면 아직 인간 수준의 지능에 도달하기엔 매우 멀기 때문입니다. 그러니까 적어도 극도로 이르다고 할 수 있습니다. 확실하지는 않지만... 그래서 그럼 여러분은 물어볼 수 있죠, 가능성이 있나요? 알아야 하고, 그럼 우리가 정말로 매우 똑똑한 AI 시스템을 설계할 확률은 얼마나 될까요? 그리고 그들이 다른 길을 가거나 예상치 못한 일을 할 확률은 얼마나 될까요, 그렇죠? 그게 맞죠, 맞아요. 저는 이 질문이 우스꽝스럽다고 생각합니다.

우리에겐 행동력이 있어요. 마치, ‘당신이 다음 분 내에 휴대폰을 떨어뜨릴 확률이 얼마나 될까요?’ 같은 거죠. 그건 제가 붙잡고 있기 때문에 거의 제로에 가깝습니다, 알겠죠, 저에겐 행동력이 있어요. 그건 마치 어디에 있든지 간에 떨어질 거고, 당신이 할 수 있는 일이 아무것도 없다는 것처럼 아닙니다. 그리고 우리는 다시 만들 거예요, 알겠죠. 그러니까, 위험한 창조물이라면, 우리는 만들지 않을 거예요, 또는 만들되 출시하지 않을 거고, 아니면 작은 것들을 만들어 실험할 겁니다. 오늘날 우리가 처한 상황은 1920-1925년의 항공 및 항공 운송이 처한 상황과 비슷합니다. 마치 사람들이 전체 위원회에서 ‘오, 지금 항공을 중단해야 해요, 재앙을 생각해보세요’라고 말하는 것 같은 거죠.”

-비행기를 타고 태평양을 건너다가 추락하고 죽을 거라는 공포처럼요.

“비행기, 맞아요, 우리는 비행기가 추락한다는 걸 알고 있죠. 그래서, 1925년에 프로펠러 비행기를 어떻게 태평양을 건너는 것이 안전하게 만들 수 있을까요? 아무도 그런 일을 해낸 적이 없었어요; 제트 엔진이 발명된 건 그로부터 몇 년 뒤였죠. 그래서 사람들이 물었죠, 슈퍼 지능 AI를 확실히 안전하게 만들 수 있나요? 그것은 마치 1925년 사람들이 터보제트를 안전하게 만들 수 있나요? 하고 묻는 것과 같아요. 그때는 터보제트조차 발명되지 않았죠, 맞죠? 네, 지금 터보제트는 믿을 수 없을 정도로 신뢰할 수 있습니다. 그게 누군가가 마법 같은 방법을 발견해서일까요? 아니요, 그건 수십 년에 걸친 공학의 결과였습니다.”

-누군가가 AI의 초기 배포는 비가 내리기 전 첫 빗방울과 같아야 한다고 말한 것 같아요. 그래서 AI를 세상에 내보내는 것이 뒤따를 무언가의 경고인가요? 이 과정을 늦춰야 할까요, 아니면 이 속도를 유지해야 할까요? AI 시스템과 우리 서비스에 대해 어떻게 생각하시나요? 빠르게 진행해야 하나요, 아니면 느리게 가야 하나요?

“우리는 경제적인 측면에서 허용하는 만큼 빠르게 진행해야 합니다. 투자를 정당화할 만한 충분한 이점이 있다면 왜 늦춰야 할까요? 안전 관점에서 볼 때, 정말로 늦출 이유는 없습니다. 안전에 관해 사람들이 이야기하는 것은 마치 007 영화의 악당 같아요. 전혀 현실적이지 않은 것들입니다. 사람들은 ‘오, AI를 사용해서 새로운 생물학적 무기(2호의 설명 : 최신 007 영화 속 빌런은 생화학 무기로 테러를 일으킴)를 설계할 수 있어요’라고 말합니다. 아니요, 그렇게 할 수 없습니다. 우선, 현재 시스템들은 공개 데이터에 근거하여 훈련되어 있으며, 검색 엔진이나 도서관 방문으로 얻을 수 없는 정보는 제공하지 않습니다. 그들은 단지 지시 목록을 제공할 뿐이고, 실제로 어려운 작업, 즉 실험실 작업, 바이러스 배양, DNA 시퀀스 합성을 위한 전송 등을 해야 합니다. 그것은 정말 어렵습니다. 그리고 그것을 방출하면 그것이 당신을 죽일 것입니다. 그런 시나리오들은 상당히 터무니없죠.”

◇앞으로 3~4가지 거대한 진보 필요...AI가 이해 못하는 세계 모델이란?

“산업계에서 모두를 놀라게 한 것은 대중이 ChatGPT에 보인 관심의 정도였습니다. 기술적으로 ChatGPT는 사람들을 놀라게 하지 않았습니다. 이 혁명은 이것이 나오기 세 해 전에 일어났었죠. 그래서 기술적 관점에서는 놀라운 일이 아니었습니다. 하지만 놀라운 것은 대중이 우리가 아마도 세 주 전에 만든, 과학자들을 돕기 위해 특별히 제작된 이미지에 매료된 것이었습니다. 그것은 매우 나쁘게 받아들여졌습니다. 트위터와 여러 네트워크에서 사람들이 너무 많이 비판해서 부정적인 반응 때문에 우리는 그것을 내렸습니다. 그리고 세 주 후에 ChatGPT가 나왔고, 그것은 기술에서 완전히 다른 방식으로 환영받는 두 번째 출현과 같았습니다. 이것은 대중이 기술을 어떻게 인식하는지에 대해 많은 것을 알려줍니다. 구글이나 마이크로소프트 같은 회사들이 제품을 출시하는 것은 역사가 없는 작은 회사보다 훨씬 더 큰 위험이 있습니다. 하지만 그것은 사람들이 이전에 깨닫지 못했던 AI 기술의 잠재적 영향에 대한 많은 생각을 바꾸었습니다. 알다시피, 약 일년 전까지 AI의 대부분의 응용은 뒷면에서 일어났습니다 – 콘텐츠 조정, 무결성, 순위 매기기, 번역과 같은 어려운 일들이죠. 하지만 AI가 핵심인, AI 중심의 제품은 없었습니다. 이제는 있습니다. 그래서 그것은 산업계 많은 사람들의 생각을 바꾸었습니다.”

-우리는 기자로서 회의적이고 엄격하게 지난 1년간 AI 이슈를 다뤘을까요?

“아마도 아닐 것입니다. 미디어에는 확실히 많은 과대포장이 있었고, 소셜 네트워크와 그런 것들에서도 마찬가지였습니다. 그 시스템들을 해답으로 보고, 우리는 그저 그것들을 확장시켜야 한다고 생각하는 것... 저는 이걸 믿지 않아요, 그리고 모두가 알고 있습니다. 그래서 저는 이에 대해 많은 공개적인 의견을 냈습니다. 처음에는 그것들을 빼내서 ‘안돼, 여러분, 이건 지능이 아니야’라고요. 하지만 우리가 AI 연구자로서는 몇 년 앞을 내다봐야 하고, 실제로 우리가 연구하는 것들은 몇 년 앞선 것들입니다. 그래서 우리는 그 한계가 무엇인지 알고 있고, 의도와 함께 일해왔습니다. 우리가 그것들과 더 많이 일할수록 그것들이 얼마나 심각한지 깨닫게 됩니다.”

“AI의 규모와 관련된 문제는, 다시 말하지만, 2020년대에 가졌던 것을 단순히 확장한다고 해서 인간 수준의 AI에 도달할 수 없다는 것입니다. 앞으로 발명해야 할 핵심적인 것들이 세~네 가지가 있습니다. 하나는 시스템을 훈련시킬 수 있는 능력입니다. 우리는 거기서 몇 가지 초기 결과를 가지고 있지만, 작동하는 공식을 가지고 있다고 생각하지 않습니다. 그런 다음, 그 시스템들을 사용하여 세계 모델을 학습하는 것입니다. 그래서 조엘은 강연에서 이에 대해 암시했지만, 우리는 이에 대해 논의할 시간이 없었습니다. 그것은 우리가 개발해야 할 중요한 부분입니다.”

-세계 모델이요?

“네. 세계 모델이란, 세계의 상태를 인식하고, 주변 환경을 관찰하며, 당신이 취할 행동을 상상할 수 있게 해주는 것입니다. 물체를 밀 때처럼, 그 행동의 결과를 예측할 수 있습니다. 여기를 밀면 저기를 밀 때와 결과가 다를 것임을 예측할 수 있죠. 이것은 전체적인 직관에 관한 것입니다. 하지만 이것은 물리적인 세계에만 국한된 것이 아니라, 주변 사람들에 대한 이해도 포함됩니다. 누군가와 대화할 때, 당신은 그들에 대한 정신적 모델을 가지고 있습니다. 사람들은 이것을 ‘마음 이론’이라고 부릅니다 – 그들이 듣기에 흥미로울 것을 이해할 수 있는 정신적 모델이죠. 그러므로, 특정 목표에 도달하기 위해 일련의 행동을 계획할 수 있는 시스템을 원한다면, 그러한 세계 모델이 필요합니다. 그리고 현재의 AI 시스템들은 그것을 할 수 없습니다.”

쫌아는기자들이 만드는, 뉴스레터 [스타트업]은 주 3회 발행하는 유료레터입니다. 오늘의 무료 콘텐츠는 여기까지 입니다. 쫌아는기자들은 네이버나 구글에선 못보는 스타트업 속내와 스토리를 전달합니다. 순수하게 유료 구독자들의 구독료로만 운영합니다. 좋은 콘텐츠 만들겠습니다, 많은 응원 바랍니다. 감사합니다.
@아래는 전문에 있는 ‘질문’과 ‘그래픽’ ‘사진’ 입니다. 유료 구독하면 전문은 물론이고 과거 3년간 모든 콘텐츠를 볼 수 있습니다.

◇미래 언젠간 인간보다 똑똑한 기계가 나올 것. 그것은 전혀 의심하지 않는다.

-당신은 계속해서 우리가 가진 AI는 여전히 바보 같고 전혀 인간과 다르다고 말씀하셨습니다. 하지만 궁극적으로 언젠가는 인간에 필적하는 AI가 나올 것이라고 여전히 믿으시나요? 그렇다면, 그 기술이 실제로 인간 같은 AI를 만들기까지 얼마나 걸릴 것 같다고 생각하시나요?

-그러면 이런 종류의 기술적 돌파구에서 가장 어려운 부분은 무엇이라고 생각하시나요? 일반인이 이해할 수 있는 방식으로 설명해주실 수 있나요?

“음, 양자 컴퓨터가 기존의 컴퓨터보다 더 효율적으로 해결할 수 있는 문제의 수는 셀 수 있습니다....”

-많은 사람들이 다양한 우려를 표현하고 있는데, 예를 들어 당신의 친구 제프리 힌튼처럼요. 그렇다면 당신의 관점에서 현재 가장 큰 위험은 무엇이라고 생각하시나요?

◇AI는 결국 오픈소스로 갈 것, 왜? “모두가 원하기 때문”

-오픈 소스가 너무 위험하다고 여겨질 때가 있을 것 같나요?

“기본 플랫폼을 가지고 있다면, 역사적으로 사람들은 그것이 오픈되기를 원합니다. ...”

-이 분야에서 많은 초점이 텍스트 데이터에 맞춰져 있습니다. 그 주제는 그것을 넘어서 비디오와 기타 등등을 보고, 진정한 인간 지능을 달성하기 위한 것입니다. 이를 위해 컴퓨터에 필요한 것을 제공하기 위해 비디오에 더 많은 레이어가 필요한가요? 텍스트 데이터만으로는 부족한가요?

“앞으로는 GPU에서 벗어나는 현상을 볼 수도 있습니다...”

◇인터뷰 영어 전문