인공지능(AI)이 급속도로 발전하면서, AI 개발을 주도하는 기업들조차 속도 조절과 안전장치 마련이 필요하다는 의견을 내놓고 있다.

AGI를 표현한 그림. 마이크로소프트 빙 AI 챗봇이 그렸다. /빙

샘 올트먼 오픈AI 최고경영자(CEO) 등 경영진은 22일(현지 시각) 자사 블로그에 올린 ‘초지능(superintelligence) 거버넌스’라는 글에서 “(인간처럼 생각하고 인간을 뛰어넘는 AI인) 초지능 개발이 안전성을 유지하면서 동시에 사회의 원활한 통합을 돕는 방식으로 이뤄지게 하려면 일정 정도의 조정이 필요하다”며 “궁극적으로는 국제원자력기구(IAEA) 같은 기구가 필요할 것”이라고 밝혔다. IAEA는 원자력의 평화적 이용을 위한 연구와 국제적인 공동관리를 위하여 설립된 국제기구다. 앞서 올트먼 CEO는 미 의회에 출석해 “오픈AI는 AI가 우리 삶의 거의 모든 측면을 개선할 것이란 믿음으로 설립됐지만 동시에 심각한 위험도 존재하는 걸 인지하고 있다”며 “강력한 모델로서 위험을 완화하기 위해 정부 규제 개입이 중요하다고 생각한다”고 밝혔다.

샘 올트먼

구글도 AI 개발을 지원하되 책임성 및 보안을 담보하는 방향으로 AI를 활용해야 한다는 정책 권고안을 지난 19일 자사 블로그에 공개했다. 구글은 AI가 가져올 경제효과를 극대화할 기회를 창출해야 한다면서도 AI 기술의 오용 위험을 줄이고 책임을 장려해야 한다고 강조했다. 구글은 “AI는 이미 질병부터 기후변화까지 다양한 문제를 해결하도록 돕고 있지만, 책임감 있게 개발되지 않으면 잘못된 정보, 차별, 오용과 같은 현재 사회문제를 증폭시킬 수 있다”고 우려했다.

또 “생성 AI는 허위 정보와 조작된 미디어를 만드는 데 쓰일 수 있다”며 각국 정부는 보안 위험이 될 수 있는 AI 기반 소프트웨어 응용 사례, 글로벌 보안을 위협하는 AI 관련 연구·개발을 지원하는 특정 단체 등에 대한 통제를 모색해야 한다”고 촉구했다. 브래드 스미스 마이크로소프트(MS) 부회장도 지난 2월 블로그에 “광범위한 AI 법에 대한 논의는 시작됐지만 지금 당장 기업이나 정부가 AI 기술을 사용할 방법을 규제하는 법은 거의 없다”며 “빠르게 발전하는 AI 기술에는 가드레일이 필요하다”는 글을 올렸다.