지난 18일 배경훈 LG AI 연구원장이 미국 새너제이에서 열린 엔비디아 'GTC 2025'에서 엑사원 딥을 소개하고 있다./LG AI연구원

“추론형 인공지능(AI)인 ‘엑사원 딥(EXAONE Deep)’으로 한국AI의 글로벌 경쟁력이 충분히 검증됐다고 생각합니다.”

18일 미국 실리콘밸리 새너제이 컨벤션센터에서 만난 배경훈 LG AI연구원 원장은 취재진에 “올 상반기에 통합형 AI 신규 모델을 내놓고 글로벌 기업들과 경쟁하겠다”며 이렇게 말했다. 배 원장은 엔비디아의 연례 개발자 콘퍼런스인 GTC 2025을 맞아 미국을 찾았다.

LG AI연구원은 올해 처음으로 엔비디아 GTC 행사에 부스를 열고, 국내 첫 AI추론 AI모델인 엑사원 딥의 시연에 나섰다. 엑사원 딥의 기본 모델 ‘엑사원 딥-32B(매개변수 320억개)는 중국 AI스타트업 딥시크의 추론 모델 R1(매개변수 6710억개) 등 우수 모델들과 비교해 수학 풀이 등에서 뛰어난 성능을 보였다. 배 원장은 “우리의 모델 크기가 딥시크의 20분의 1인데도 대등한 수준에 달했다”며 “다만 모든 면에서 R1은 능가한 것이 아니고, 우리가 적어도 2100억 매개변수 정도를 갖출수 있으면 이를 완전히 넘을 수 있을 것”이라고 했다.

그는 국내 AI모델 개발을 위해 지속적인 투자가 필요하다고 강조했다. 배 원장은 “우리 AI는 (엔비디아의 이전 AI칩) H100 512장으로 훈련시켰는데, H200 2000장이 있으면 모델을 업그레이드해서 R1을 넘을 수 있을 것”이라며 “엑사원을 한국의 대표 ‘소버린(주권)’ AI로 키우고 싶다”고 했다. 현재 국내에서 자체적으로 개발한 기초 AI 모델을 출시한 곳은 LG AI연구원이 유일하다.

엑사원 딥이 R1과 비슷한 성능을 보일 수 있었던 배경에는 LG AI연구원이 고안한 AI훈련법이 있다. 배 원장은 “AI가 스스로 데이터를 생성하고, 이 데이터가 의미 있게 쓰일 수 있는지 평가하는 플랫폼을 내부적으로 구축했는데 이 덕분에 AI훈련 속도가 아주 빨라졌다”며 “하반기에는 이를 넘어 AI가 스스로 모델을 업데이트하는 기술까지 완성할 계획”이라고 했다. 실제로 LG AI연구원의 전작인 엑사원 3.0에서 3.5까지 업그레이드 되는데 4개월이 걸렸지만, 이번 추론 모델이 새롭게 나오기 까지는 42일이 소요됐다.

배 원장은 “LG의 기술은 AI에이전트 시대의 근간이 될 것으로 생각한다”며 “앞으로 경제성이 있는 모델을 만드는데 이 기술이 큰 역할을 할 것”이라고 했다. 다만 그는 “LG AI 연구원은 엑사원을 챗GPT처럼 B2C 사업으로 키울 계획은 아직 없다”며 “대신 계열사를 주요 고객으로 삼고, 바이오와 소재 분야에서 제약회사 등 해외 기업 10여곳과 협력할 것”이라고 했다.