오픈AI 로고./AP 연합뉴스

챗GPT를 개발한 오픈AI가 인공지능(AI) 챗봇을 과제나 논문 등에 부정하게 사용했는지 여부를 감별할 수 있는 기술을 개발했지만, 이용자 확대를 위해 이를 공개하지 않고 있다고 월스트리트저널(WSJ)이 4일 보도했다.

보도에 따르면 이 같은 ‘부정행위 방지(Anti-cheating)’를 위한 감별 기술을 1년 전부터 출시가 준비됐을 만큼 완성된 상태다. 다만 회사 내부에선 AI사용의 투명성을 지키는 것이 필요하다는 의견과 챗GPT 이용자를 늘리려는 욕망 사이에서 2년간 논쟁이 이어지며 출시가 계속해서 늦춰졌다는 것이다. 오픈AI가 자체적으로 진행한 설문 조사에 따르면 이용자의 3분의 1이 감별 기술이 도입될 경우 챗봇을 사용하지 않겠다고 답변했다.

이 기술은 챗GPT가 생성한 문장에 눈에는 보이지 않는 워터마크를 남기고, 감별 기술로 이 워터마크를 인식하는 방식으로 작동한다. 탐지기는 문서의 얼마나 많은 부분이 챗GPT에 의해 작성됐는지에 대한 점수를 제공하게 된다. 내부적으로 이 기술의 감별 성공률은 99.9%로 보고 있다.

다만 이 기술의 허점도 있다. 워터마크가 삽입된 문장을 구글 등 번역기로 다른 언어로 번역한 후, 이를 다시 영어로 번역하면 워터마크가 사라진다는 것이다. 또 오픈AI는 이 기술을 대중에게 공개할 경우, 회사의 워터마크 삽입 기술을 해독해 이를 남용하는 문제가 생길 수도 있는 점을 우려하고 있다.

WSJ는 “그럼에도 일선 학교 등에선 학생들의 부정행위를 막기 위해 이 같은 기술 공개를 원하고 있다”고 전했다. 생성형AI는 간단한 지문만으로 몇 초만에 작문을 써낼 수 있다. 챗GPT가 출시된 후 이 같은 부정 행위에 가장 골머리를 썩히고 있는 곳은 학교다. 기술 정책을 다루는 비영리조직 ‘민주주의와 기술 센터’가 최근 진행한 조사에 따르면, 미국 중·고등학교 교사의 59%가 학생들이 학교 과제에 AI를 사용하는 것으로 확신한다고 답했다. 이는 지난해 대비 17% 늘어난 수치다.