부정확한 정보 전달과 저작권 침해, 개인 정보 유출 등 인공지능(AI)의 부작용에 대한 우려가 커지면서 AI 기술을 감독·규제하는 국제 기구를 신설해야 한다는 목소리가 커지고 있다. 파이낸셜타임스는(FT)는 6일(현지 시각) “리시 수낙 영국 총리가 조 바이든 미국 대통령과의 정상회담(8일)에서 인공지능 개발과 규제에 대해 논의할 예정”이라며 “AI 규제 방면에서 영국의 주도적인 위치를 드러내려는 것이다”라고 했다.

FT에 따르면 수낙 총리는 AI의 국제 공동 개발과 규제를 위해 유럽입자물리연구소(CERN)와 국제원자력기구(IAEA) 모델을 제안할 예정이다. 프랑스-스위스 국경에 위치한 CERN은 유럽 22개 회원국이 참여한 세계 최대 입자물리연구소다. 회원국들이 공동으로 입자가속기 실험을 하고 그 밖에 필요한 연구 환경도 제공한다. ‘CERN for AI’라는 기구를 만들고 세계 각국이 참여한 윤리적인 환경에서 공익을 위한 AI 연구와 개발을 하자는 게 수낙 총리의 계획이다.

빈에 본부를 둔 IAEA는 원자력의 평화적 개발을 감독하는 국제 규제 및 감시 기구다. 챗GPT를 개발한 오픈AI의 창업자 샘 올트먼도 지난 5일 이스라엘 텔아비브를 방문해 “IAEA처럼 인공지능 문제를 심각한 위험으로 여기고 안정성을 검증할 수 있는 국제기구가 필요하다”고 주장했을 정도로 AI 규제 논의에서 각광받는 모델이다. FT는 “AI도 국제 규제 기구와 정부의 지원을 받는 윤리적 연구가 필요하기 때문에 규제와 개발로 서로를 보완할 수 있는 IAEA와 CERN 모델은 충분히 고려 대상이 될 수 있다”라고 했다.

AI가 전 세계의 공통 화두로 떠오른 지 얼마 되지 않아 벌써 국제 기구 제안이 나온 것은 앞으로 AI가 가져올 경제, 정치, 사회적 변화가 클 것으로 보기 때문이다. 수낙 총리가 AI 국제 기구와 관련해서 발 빠르게 움직인 것은 개발 분야는 미국이 앞서고 있지만 규제 분야에선 영국도 주도권을 쥐겠다는 의도로 풀이된다. 영국 정부 관계자는 FT에 “AI 기술이 발전하면서 여기에 대한 세계적 합의의 필요성이 커지고, 이 기회를 통해 영국이 이익을 얻으면서 위험도 관리하는 역할을 하겠다는 것”이라고 했다.