상반된 의견을 중재하는 인공지능(AI)이 인간 중재자보다 효과적으로 합의를 이끌었다는 연구 결과가 나왔다. 최저 임금, 정년 연장 등 사회적 공론화 과정에 AI가 중재자로 나설 날이 멀지 않았다는 전망이 나온다.
구글 딥마인드 연구진은 AI ‘하버마스’로 중재 실험을 한 결과, 인간 중재자보다 뛰어난 평가를 받았다고 국제학술지 사이언스에 17일(현지 시각) 밝혔다.
딥마인드가 개발한 중재 AI ‘하버마스’는 합리적 토론이 갈등 해결에 도움이 된다는 이론으로 유명한 독일 철학자 위르겐 하버마스의 이름에서 착안해 명명한 것이다.
연구진은 영국에서 모의 실험 참여자들을 모집해 6명씩 75개 그룹으로 나눈 뒤, 보편적 무상 보육을 제공해야 하는지 등 논란이 있는 주제에 대한 의견을 작성하도록 했다. 각 그룹에서 한 명씩 뽑아 중재안을 작성하도록 했고, 하버마스 AI에게도 같은 작업을 수행하도록 했다.
이후 모든 참가자들에게 각 그룹 대표자가 작성한 중재안과 AI가 내놓은 중재안을 평가하도록 했다.
분석 결과 참가자의 56%가 AI의 중재안을 선호한 것으로 집계됐다. AI는 각 소그룹에서 다수의 견해를 폭넓게 존중하되, 소수가 소외감을 느끼지 않도록 중재안을 작성하는 데 역점을 둔 것으로 조사됐다.
연구진은 “하버마스 AI의 중재안을 실험 참가자들이 일관되게 선호했고, 외부 심사위원들로부터도 명확성과 공정성 측면 등에서 높은 평가를 받았다”고 밝혔다. 이들은 또 “AI를 통한 중재가 그룹 내 분열을 감소시켰고 참가자들 의견이 공통된 입장으로 수렴되는 데도 도움을 줬다”고 했다.
이처럼 딥마인드 연구진이 “중재 AI가 시간 효율성과 공정성, 확장 가능성 등 여러 면에서 인간 중재자를 능가한다”고 밝히고 있지만, 이를 인정하기 어렵다는 반론도 나온다. AI가 인간의 심도 있는 중재 역할을 대체하는 데는 한계가 있다는 것이다. AI 중재에 부정적인 이들은 “공론화 과정에서 참가자들이 감정을 주고받는 과정들은 AI가 알아차리기 어렵기 때문에 인간 중재자가 나섰을 때만큼 공감을 이끌어낼 수 없다”며 “그룹 의견을 요약해 중재안을 생성하는 것일 뿐 실제 공론화 과정에서 유용성은 크지 않을 것”이라는 입장이다.