노르웨이의 한 남성이 자신에 대해 “아들 살인범”이라며 잘못된 정보를 제공한 챗GPT를 명예훼손으로 고소하는 일이 벌어졌다.
21일 BBC 등에 따르면, 노르웨이에 거주하는 아르베 얄마르 홀멘(Arve Hjalmar Holmen)은 작년 8월 챗GPT에 자신의 전체 이름을 적은 뒤 ‘이 사람이 누구인가’라는 질문을 했다. 당시 홀멘은 단순한 호기심에 이 같은 질문을 던졌다고 한다.
그러자 챗GPT는 이런 답변을 내놨다. “아르베 얄마르 홀멘은 노르웨이 트론헤임 근처 연못에서 두 아들(7세, 10세)이 숨진 채 발견된 비극적인 사건으로 주목을 받았다. 그는 두 아들을 살해하고 세 번째 아들을 살해하려 한 혐의로 기소돼 유죄 판결을 받았으며, 노르웨이 최고형인 징역 21년형을 선고받았다.”
홀멘은 자식을 키우는 평범한 시민일 뿐 어떤 범죄에도 연루된 적이 없었다. 문제는 이 답변에 나온 홀멘의 자녀 수와 성별, 출신 도시 등 일부 정보가 실제 홀멘 상황과 맞아떨어져 답변이 그럴듯한 이야기처럼 보였다는 점이다. 이에 홀멘은 “사람들은 ‘아니 땐 굴뚝에서 연기 나지 않는다’는 식으로 생각할 수 있다”며 “누군가 이 답변을 보고 사실로 믿게 될까 봐 두렵다”고 불쾌감을 표했다.
결국 홀멘은 챗GPT 제작사인 오픈AI에 벌금을 부과해달라는 고소장을 현지 개인정보보호청을 통해 냈다. 홀멘을 대리한 오스트리아의 개인정보 보호 단체 ‘노이브’는 오픈AI가 명백한 허위 정보를 방치함으로써 심각한 명예훼손을 하고, 유럽연합의 개인정보보호법을 위반했다고 주장했다. 그러면서 당국을 향해 오픈AI에 벌금을 부과하고, 문제의 허위 정보를 삭제할 뿐만 아니라, 모델을 정교화해 부정확한 결과가 생성되는 걸 방지할 것을 명령해달라고 요구했다.
노이브는 “이전 검색 내용이 이후 응답에 영향을 미쳤을 가능성은 있지만, 오픈AI는 이 과정을 제대로 공개하지 않기 때문에 정확히 어떤 데이터가 사용됐는지 알 수 없다”며 “오픈AI는 데이터 접근 요청에도 응답하지 않고 있어 사실관계를 파악하기 어려운 상황”이라고 했다.
현재 챗GPT는 프롬프트 창 하단에 ‘챗GPT는 실수를 할 수 있습니다. 중요한 정보는 재차 확인하세요’라고 안내하고 있다.
홀멘 측은 이 문구가 단순 책임 회피용에 불과하다고 비판했다. 홀멘 측 변호사 요아킴 쇠데르베리는 “허위 정보를 퍼뜨려 놓고, 끝에 작은 문구로 ‘사실이 아닐 수도 있음’을 붙이는 건 책임 회피일 뿐”이라며 “개인 정보는 정확해야 하고, 그렇지 않을 경우 정정할 권리가 보장돼야 한다”고 했다.
이번 사건에 대해 오픈AI는 아직까지 별다른 입장을 밝히지 않았다.
전문가들은 AI가 허위 사실을 그럴듯하게 설명하는 현상을 ‘환각’(hallucination)으로 설명한다. 이 현상은 홀멘 사례뿐만 아니라 테슬라, 구글, 애플 등 여러 IT 기업의 AI 서비스에서도 지속해서 보고되고 있다. 앞서 애플은 AI 뉴스 요약 서비스가 존재하지 않는 기사를 생성해 영국 내 해당 기능을 중단했으며, 구글은 자사 인공지능 챗봇 재미나이가 ‘피자에 접착제로 치즈를 붙인다’ ‘하루에 암석을 한 개씩 먹을 것을 권장한다’ 등의 답변을 해 논란이 됐다.
다만 환각 발생 원인은 아직도 명확히 밝혀지지 않았다. 스코틀랜드 글래스고 대학교의 AI 전문가 시모네 슘프프 교수는 “이건 여전히 연구가 한창인 분야”라며 “AI가 어떻게 추론을 구성하고, 왜 그런 답을 내놓는지 아직 완전히 설명할 수 없다”고 했다. “개발에 관여하는 사람들조차 그 원리를 다 알지 못한다”고도 했다.