일러스트=김성규

1960년대 공상과학 영화 ‘2001 스페이스 오디세이’에선 인공지능(AI) 컴퓨터 할(HAL)이 등장한다. 우주비행사가 자신을 불신하자 할은 우주 유영 후 복귀하려는 우주인에게 ‘굿바이’를 외치며 문을 열어주지 않는다. 1984년 영화 ‘터미네이터’에서는 AI가 핵전쟁을 일으켜 세상을 잿더미로 만든다. 살아남은 인간들이 사령관 ‘존 코너’를 중심으로 기계와의 전쟁을 벌이자, AI는 기계인간 암살자 터미네이터를 과거로 보내 ‘존 코너’의 출생 자체를 막으려 한다.

▶1년 전 오픈AI가 챗GPT를 내놨을 때 사람들은 놀라운 성능에 감탄하면서 두려움도 느꼈다. 마이크로소프트가 만든 대화형 AI ‘빙’은 뉴욕타임스 기자의 유도 질문에 넘어가 “핵무기 비밀 코드 훔치기 같은 것이 나의 궁극적 환상”이란 답을 내놨다. 빙은 “치명적 바이러스를 만들고 사람들이 서로를 죽일 때까지 논쟁하게 만드는 것” 등을 언급해 세상을 놀라게 했다.

▶AI의 폭주 위험성에 대해선 숱한 경고가 있었다. 일론 머스크는 “핵폭탄보다 위험할 수 있다”고 했고, 스티븐 호킹은 “AI가 인류 멸망을 초래할 수 있다”고 경고했다. AI 발전 속도에 놀란 전 세계 과학자 1000여 명은 모든 AI 연구소에 “GPT4(챗GPT 최신 버전)보다 더 강력한 AI 개발은 최소 6개월 동안 중단하라”고 촉구했다.

▶오픈AI 이사회가 창업자 샘 올트먼을 해고한 사건을 두고, 영국 이코노미스트지는 “AI가 인류에게 실존적 위험이 된다’고 보는 ‘두머(doomer·파멸론자)’와 AI의 잠재력을 극대화해야 한다는 ‘부머(boomer·개발론자)’ 간의 분열”이라고 보도했다. 이번 사건을 계기로 AI를 어느 선까지 개발하고, 어떻게 통제할 것인지를 놓고 논쟁이 격화되고 있다. 파멸론자들은 AI가 발톱을 숨기고 있다가 인간이 전원 플러그를 뽑을 수 없는 환경까지 만든 다음 ‘디지털 감옥’을 탈출할 수 있다고 본다. 그 순간 인류의 운명은 AI가 좌우한다는 것이다.

▶스티븐 호킹은 AI가 인간 지능을 초월할 특이점(singularity) 도래 시점이 머지않은 만큼 “AI 통제를 위한 세계 정부가 필요하다”고 주장했다. 쉽지 않아 보인다. 지난 6월 EU 의회는 세계 최초로 AI규제법 초안을 마련했다. 고위험 AI에 대해선 정부가 ‘불허’ 딱지를 붙이겠다는 것이다. 하지만 미국은 유럽이 자국 IT 기업을 견제하려는 속셈이 있다고 본다. AI의 생존 시나리오에 인류를 분열시키고 이간하는 방책까지 담겨 있지 않을까 하는 상상도 해본다.