“최근의 개발 속도를 보면 ‘초지능(Super Intelligence)’이 5~20년 안에 개발될 것이다. AI에 대한 통제 방안을 한시라도 빨리 만들어야 한다.”(노벨물리학상 수상자 제프리 힌턴)
“인공지능(AI)은 인류가 개발한 가장 강력한 기술 중 하나인 만큼, 그 위험성을 매우 심각하게 다룰 필요가 있다.”(노벨화학상 수상자 데미스 허사비스)
스웨덴 스톡홀름에서 열리고 있는 올해 노벨상 시상식에서 단연 화두는 ‘AI’다. 시상식장 인근에 모인 과학자들은 AI가 노벨 과학상을 휩쓴 것을 대화 테이블에 올리고 있다. 이들의 이야기에는 AI에 대한 낙관론보다 우려가 더 묻어난다. 올해 수상자들도 인터뷰와 강연에서 예상을 뛰어넘은 AI의 발전 속도에 큰 우려를 나타냈다. AI가 인류의 지능 수준을 뛰어넘어 ‘통제 불능’이 되고, 우리 사회의 불평등을 키우는 상황이 현실화할 수 있다는 것이다.
◇인간 넘는 ‘초지능’ 멀지 않아
올해 노벨물리학상을 받은 ‘AI의 대부’ 제프리 힌턴 캐나다 토론토대 교수와 노벨화학상을 받은 데미스 허사비스 구글 딥마인드 최고경영자(CEO)는 인류의 지능을 뛰어넘는 ‘초지능’ AI가 멀지 않았다고 입을 모았다.
7일 스웨덴 왕립과학한림원에서 개최된 노벨 물리·화학·경제학상 수상자 공동 기자회견에서 힌턴 교수는 “인간을 뛰어넘는 AI가 존재할 수 있다고 진지하게 생각하느냐”는 질문을 받았다. 그는 “나와 허사비스 모두 초지능이 실현될 것이라고 믿는다”며 “이것은 과대광고(hype)가 아니고, AI의 다른 문제를 숨기려고 하는 말도 아니다. 오래전부터 우리가 믿어온 것”이라고 했다. 힌턴 교수는 “최근 AI의 개발 속도를 고려할 때 나는 5~20년 안에, 허사비스는 10년 안에 초지능이 등장할 것이라고 생각한다″며 “AI를 어떻게 통제할 것인지 진지하게 고려할 때가 됐다”고 했다. 그는 “AI 안전성을 보다 일찍 고민했다면 좋았을 것”이라고 후회하기도 했다.
힌턴 교수는 AI의 단기적 위협으로 ‘자율 살상 무기 체계(LAWS)’의 개발을 꼽았다. LAWS는 AI가 적을 스스로 인식하고 공격할 수 있는 체계다. 힌턴 교수는 “각국 정부는 LAWS와 관련해 규제를 스스로 만들려고 하지 않는다”며 “예컨대 유럽의 AI법은 AI의 군사적 활용을 제외한 상황”이라고 지적했다. 미국, 중국, 러시아, 영국, 이스라엘 등 주요 무기 공급국 간 군비경쟁이 심화하면서, 군사 AI 규제에 미온적이라는 것이다.
힌턴 교수는 AI의 위험성을 경고해 온 ‘두머(Doomer·파멸론자)’로 꼽힌다. 그는 2006년 ‘심층 학습(딥러닝)’ 개념을 창시한 후 AI 연구를 선도해 왔다. 하지만 10여 년간 몸담았던 구글에서 지난해 4월 퇴사한 후 AI의 위험성을 경고하고 있다. 그는 “현재 AI 개발 기업은 안전성 연구에 1% 정도의 역량만을 할애하고 있다”며 “컴퓨팅 능력의 최소 3분의 1은 AI 안전성 연구에 투입하도록 법률을 정비해야 한다″고 했다.
허사비스 CEO는 8일 수상자 강연에서 “AI가 인류의 가장 큰 과제를 해결할 수 있는 놀라운 잠재력을 가지고 있다고 생각해 AI 연구에 매진해 왔다. 하지만 AI는 이중적인 성격의 기술이기 때문에 책임감 있고 안전하게 구축돼야 하며 모든 사람의 이익을 위해 사용되어야 한다”고 했다. 또 “AGI(범용 인공지능)만큼 혁신적인 기술은 없을 것이라고 생각한다. 불이나 전기의 발명처럼 엄청난 기술 개발의 다음 단계로 나아가기 위해서는 특별한 주의가 필요하다. 이 기술을 안전하게 관리할 수 있다면 AGI는 결국 궁극적인 범용 도구가 될 수 있다”고 했다.
그는 전날 기자회견에서도 비슷한 취지의 말을 했다. 허사비스 CEO는 “언제나 나의 열정은 항상 오늘날처럼 과학적 발견을 도와주는 AI 도구를 개발하는 것이었고, AI가 질병, 에너지, 기후 등 인류가 직면한 문제를 해결하는 데 도움을 줄 것이라고 생각한다. AI는 인류가 발명할 수 있는 가장 강력한 기술 중 하나라고 생각하지만, 이에 따른 위험성은 매우 심각하게 다룰 필요가 있다”고 했다.
허사비스 CEO는 정부와 시민사회에 ‘빠르고 민첩한’ AI 규제가 필요하다고 조언했다. 그는 “AI는 규제도 중요하지만, 규제를 올바르게 하는 것이 더 중요하다고 본다. AI는 매우 빠르게 변화하고 진화하는 기술이기 때문에, 수년 전에 논의되던 규제를 지금 적용하는 게 어려울 수 있다”고 했다. 또 “의료나 운송 분야에서 AI 규제를 적용하고, 기술이 어떻게 발전하는지에 따라 빠르게 적응하도록 해야 한다. 우리가 AI를 무엇에 쓰고 싶은지, 어떻게 효율적으로 사용할 것인지, 인류 전체에 이익을 어떻게 줄 수 있는지 고민해야 할 것”이라고 했다.
◇AI, 불평등도 키운다
올해 노벨경제학상을 받은 다론 아제모을루 미 MIT 교수는 AI가 빅테크 등 소수 권력에 집중돼 세계적 불평등을 확대할 것이라고 경고했다. 그는 “현재 가장 부유한 국가는 가난한 국가에 비해 1인당 부(富)가 60~70배 많은데, 산업혁명 전에는 이 격차가 3~4배 정도에 그쳤을 것이다. 이처럼 파괴적인 기술 변화는 막대한 격차를 만들고, 나는 AI가 실제로 세계 격차를 키울 것이라고 생각한다”고 했다. 그는 “AI는 개발도상국의 뒤처지는 근로자나 학생을 돕는 방식으로 사용될 잠재력이 있다. 하지만 현재의 AI는 그렇게 발전하고 있지 않다. AI는 매우 극소수의 국가, 사람들의 손에 집중되고 있으며 훨씬 큰 불평등을 부추길 것”이라고 했다.