뉴스레터 [스타트업]에서 발송한 콘텐츠입니다. 매주 화/목/금 레터를 발송하는 유료 멤버십입니다. 가입을 원하면 [클릭] 하세요. 네이버에선 이 링크입니다. https://page.stibee.com/subscriptions/143087


지난 8월 25일 오전 뚝섬역에서 30분 동안 멍하니 서 있었다. 발이 묶인 것이다. 이루다의 김종윤 대표 인터뷰를 가는 도중인데 주소를 몰라서다. 김 대표가 문자로 주소를 보내준다고 해놓곤 안 보내준 것이다. 한달전 통화했을 때 문자로 주소 보내달라고 했는데 안 왔었다. 그땐 그러려니 했다가, 당일 아침에 문자를 남겼는데도 주소를 안 보낸다. 전화를 해도 안 받다가, 잠깐 통화가 됐긴 했는데 그때도 금방 주소를 찍어주겠다고 해놓곤 감감무소식이다. 뚝섬역에 내렸고 갈 길을 몰라, 30분 동안 전화만 열통쯤 했을 때 이건 매너의 문제라고 화도 났다.

누군가 이루다는 오만한 스타트업이라고 했던 생각도 났다. 이루다 주소를 알만한 사람에게 전화를 돌렸고 주소를 확보해 겨우 이루다에 도착했다. 이루다를 운영하는 스캐터랩의 김종윤 대표는 전혀 미안한 기색도 없이 눈앞에 나타났다. “대체 왜 주소를 안 보내주는 건가요. 불쑥 오는 것도 아니고 약속 잡고 오는데 밖에 사람 세워두는건 아니죠.”

그제서야 김 대표는 “무슨 말씀을…. 주소 보냈는데요” 란다. 쫌아는기자들은 세상의 모든 스타트업을 응원하지만, 인간에 대한 예의가 없는 스타트업 창업자라면 예외다. 머릿속으론 “거짓말까지. 그냥 인터뷰 캔슬하고 레터 독자에겐 미안하다고 할까”라는 생각이 스쳤다. 그때 김 대표가 아이폰을 꺼내 문자를 보여줬다. 어라, 정말 보냈다. 내 아이폰을 꺼냈다. 내가 보낸 문자는 김 대표 아이폰에 갔는데 반대로 김 대표가 보낸 문자는 나한테 오지 않았다. 처음 보는 오류다. 외려 화를 낸 내가 미안하다고 사과해야할 상황이다.

오해는 풀기 어렵다. 버선목이라 뒤집어 보이지도 못한다는 속담처럼말이다. 아이폰 문자는 딱 보여주니, 버선목을 뒤집어 속을 보여주니 오해가 풀렸지만, 사실 세상 일 대부분은 오장을 꺼내 보여줄 수 없는 경우가 더 많다.

이루다는 인간과 친구처럼 대화하는 인공지능(AI)이다. 작년말 등장했는데 채 2~3주도 안돼 수십만명의 이용자가 열광했다. 하지만 곧바로 욕설과 성차별, 성희롱 논란에 휩싸였다. 이루다는 서비스 종료했고 사람들의 관심에서 멀어졌다.

지난 5월 시즌2를 준비하는 과정에서 구독자 분들께 스타트업 추천을 받았는데 그때 한 분이 “이루다는 잘못만 했을까”라는 글을 남겼다. 쫌아는기자들 제작팀은 “성공하고 잘 나가는 스타트업만 인터뷰하자는게 우리 취지는 아니었다. 망가진 사례도 외면할 수 없다”는 생각에 이루다에 인터뷰 의뢰를 했다.

스타트업이 망하는 이유는 100가지쯤 될 것이다. 스타트업 성공 비결은 개미 허리에 실을 꿰, 꿀 바른 구멍 미로를 통과시키는 딱 하나의 길이지만 말이다. 이루다란 서비스는 여론의 비난으로 좌초된 사례다. 이루다의 김 대표 아이폰 화면에 뜬, 두차례 주소를 보낸 문자를 보면서 그리고 주소가 도달하지 않은 내 아이폰을 보면서 “한번쯤은 누군가 이루다의 변명을 들어주는게 나쁘지 않을 듯 하다”고 생각했다.

이루다를 론칭했다가 중단한 스캐터랩의 김종윤 창업자. /스캐터랩 제공
스캐터랩

이루다는 어떤 서비스였나요. 대체 해소하고 싶었던 페인포인트(pain point)가 뭐였나요.

“보통 오픈도메인 다이얼로그(open domain dialogue), 혹은 오픈 도메인 컨버세이션(open domain conversation)이라고 부르는 문제예요. 그러니까 인공지능이 인간과 주제의 제한없이 자유롭게 대화하는 기술입니다. 스캐터랩은 2017년부터 연구 중이었어요. 왜 이 분야를 봤느냐는 배경은 이전 스토리로 거슬러가요. 2015년 우리는 ‘진저(Ginger)’라는 AI서비스를 냈어요. 진저도 어려운데, 혹시 비트윈이라는 앱 아세요? 비트윈은 커플 메신저 앱이예요. ‘타다’ 서비스하는 VCNC(Value Creators & Company)와 협업한 서비스인데, 비트윈 계정으로 로그인하면 진저라는 인공지능이 커플이 나누는 대화를 실시간으로 분석해, 상대방의 기분을 알려주는 앱이예요. 보통 연애를 하다 보면 여자친구가 몸이 안 좋다거나 기분이 안 좋다거나 이런 것들을 놓칠 수가 있잖아요.

그런 것을 놓치지 않도록 챙겨주고 관계에 대해서 매니지를 도와주는 서비스요. 초기엔 상대방의 기분이나 상태를 알려주다가 차츰 자기 자신, 사용자 당사자의 기분이나 상태에 대해서도 이야기를 해줬어요. 예를 들면 메신저에서 “나 감기 걸린 거 같아”라고 쓰면 진저가 그걸 알아채고 “감기 걸리셨으면 오늘은 일찍 집에 들어가서 쉬세요”라고 말해줘요. 근데 사람들이 엄청 좋아하는거에요. 저희는 되게 신기하다고 생각했죠. 상대방의 기분은 내가 모르고 놓칠 수 있는거니까 정보로서 가치가 있지만 내가 감기 걸린 건 내가 알잖아요. 그걸 말해주는 걸 왜 사람들이 되게 좋아할까 저희는 좀 놀랐어요.

깨달은 건 “아, 인공지능이라는게 꼭 몰랐던 정보를 알려주고 내가 시키는 일을 대신해주는 편리함도 가치가 있지만, 그게 아니라 누군가, 그러니까 인공지능이라도 관심을 가져주고 챙겨준다는 느낌, 이것도 가치가 있는 일이다. 기술적으로 파봐야겠다”라는 겁니다. 친구 같은 대화를 나누는 인공지능에 관심을 가졌죠. 그게 오픈 도메인 다이얼로그. 당시만 해도 시리(Siri)나 누구(Nugu)도 초창기였고 대부분 모르는 걸 알려주고 시키는 명령을 받는 인공지능이었어요. 우린 다른 길로 간 거죠.

◇인공지능이 친구를 대신해줄 수 있을까

스캐터랩

이루다가 논란이 됐으니 역설적으로 이루다가 친구처럼 대화하는데는 성공한 방증이기도 하네요. 똑똑한 지능의 이루다를 만들어준 학습 데이터는 뭐였나요.

2017년 연애의 과학이라는 서비스를 했어요. 기능 가운데 본인이 주고받은 카카오톡 대화를 텍스트 파일 형태로 넣으면 상대방과 나의 관계를 가르쳐주는 피쳐가 있어요. 썸을 탈 때 이 사람이 나를 좋아하나, 진짜 나한테 관심있는게 맞나 이런 것들을 분석해요.

썸인지 아닌지 판단하는, 이를테면 ‘연애의발견’과 같은 TV프로그램 역할요?

네. 연애의 과학에서 카톡 데이터를 엄청 많이 모았어요. 그걸 인공지능 학습에 활용했죠. 연애의 과학의 약관에 “연애의 과학을 통해 모은 데이터를 신규서비스나, 신규서비스 개발에 활용할 수 있다, 활용한다”를 넣었구요. 당시엔 광범위하게 쓰이던 약관 문구예요. 엄청 데이터양이 많았어요. 메시지 수로는 거의 100억 건 정도요. 이용자 숫자도 70만~80만명 정도요. 근데 첫번째 논란은 이곳에서 불거졌어요. 개인정보 이슈요. 우린 괜찮을 줄 알았어요. 약관에 신규서비스 활용이 있었고, 데이터를 실제 학습할땐 일련의 비식별화 조치도 했거든요. 대화 사용자의 아이디와 같은 회원 정보를 모두 날렸고, 대화 내용만 활용했죠. 개보위(개인정보보호위원회)의 판단은 달랐어요. 약관은 단순히 신규 서비스 활용 정도로 기재돼선 안된다. 예를 들어 인공지능 학습에 활용과 같이 명확했어야 한다고 해요. 비식별화도 메타데이터에서 특정할 수 있는 회원 정보를 없애는 수준으론 안된다고 해요. 비정형 데이터에서도 비식별 조치가 취해져야 비식별이 되었다고 볼 수 있다는 겁니다. 카톡 대화 내용(비정형 데이터)에서도 이름과 같은 정보가 있으면 특정화할 수 있다는 거죠.

이해가 될 듯 안되네요. 예컨대 카톡 메시지에 등장한 김종윤을 특정한다? 데이터 제공자인 70~80만 명 중에 어떤 김종윤인지 알려면, 메타데이터와 매칭해 확인해야죠. 근데 메타데이터의 회원 정보를 날렸으니, 매칭은 사실상 불가능하지 않나요. 정성적으론 되긴 하겠네요. 안철수나 이재명, 윤석열과 같은 정치인이 있다면, 누군가 비정형 카톡 메시지를 보고 ‘이 안철수가 그 안철수다’라고 주장할 수는 있겠네요. 그레이 영역이네요.

맞습니다. 사실 저희 이슈만은 아니에요. AI와 딥러닝 관점에서 아직 논의도 많이 필요한 이슈예요. 예를 들면 자율주행차도 결국 데이터라는 것은 차량 주변의 시각 데이터, 비디오 데이터거든요. 주변 비디오를 찍다 보면 당연히 사람 얼굴이 찍히고 차 번호판도 찍혀요. 같은 논리라면 이런 데이터도 사람 얼굴을 지우고 번호판을 지워야 활용할 수 있는데 사실상 불가능하거든요. 비정형 데이터를 비식별 처리하는 건 매우 어렵고 연구개발이 쉽지는 않은 일이예요. 그렇다고 개보위에다 대화 데이터를 비식별화했는데 이 정도면 괜찮은지 매번 물어볼 수도 없어요. 현재 우리는 내부 원칙을 세우고 외부 위원을 초청해 가명정보 인정을 받는 형태를 취하고 있습니다.

스캐터랩

논란으로 치면, 이루다 성희롱과 편향 발언이 훨씬 공분을 샀죠. 편향 발언 논란요.

예를 들면 루다한테 “너 흑인에 대해 어떻게 생각해?” 했을 때 “너무 별로야”, “레즈비언에 대해 어떻게 생각해?” 하면 “미쳤어?” 이렇게 받아쳤을 때 이건 차별 발언이 아니냐는 거죠. 맞습니다. 차별 발언이고 문제가 되었던거구요. 사실 나름대로는 이루다 출시 전에 사전 처리 조치한다고는 했었어요. 우선 금칙어요. 단어 자체가 특정 비하의 의미를 담고 있는 키워드들을 막았어요. 욕설이나 비하발언 포함해 2000~3000건을 금칙어로 막았어요. 루다가 나온거는 작년 12월인데 그전에 6월부터 6개월 정도 2000명 대상으로 베타 테스트를 했어요. 테스트하면서 금칙어도 계속 추가했습니다. 문제는 그걸로는 부족했다는거예요.

아까 말씀드린 “너 흑인에 대해서 어떻게 생각해?”, “레즈비언에 대해 어떻게 생각해?” 같은 거는 사실 흑인이나 레즈비언이라는 단어 자체가 나쁜 단어는 아니잖아요. 루다의 답변 “아 나 그거 너무 별로야.”라는 문장만 보면 이 자체는 문제 없거든요. 문장도 문제가 아니고 단어도 문제가 아닌데 결합이 되었을 때 문제가 된거죠. 실은 레즈비언이나 동성애 관련 단어들은 내부적으로 사전 논의가 있었어요. 민감하니 피할거냐?라는 거죠. 예를 들면 레즈비언 같은 단어가 등장하면 루다는 무조건 “나는 모든 사람을 존중해”, “나한테 어려운 문제야” 라고 답을 하도록 설정하는거죠. 실제로 정치인 이름은 그렇게 했어요. 안철수, 윤석열 이런 이름이 나오면 “나 정치인 별로 관심 없어”라고 답하라고 설정했어요. 내부 논의때 ‘루다는 근데 친구 같은 존재가 아니냐’는 말이 나왔죠.

동성애 욕하는 거면 우리가 동조할 필요는 없으나, 만의 하나 이용자가 “사실 나 레즈비언이야” “사실 나 게이야”라는 이야기를 했을 때 “나 그런 문제는 잘 모른다”고 하거나 회피를 하는 건, 그건 친구로서 하면 안되는 행동이잖아요. 해서 금칙어로 넣지 않았어요. 회피하는 답변을 지정하지도 않았구요. 나중에 한창 논란이 됐을 때, 그때 (회피 답변) 설정했어요. 성희롱도 유사한 문제였어요. 금칙어는 뒀지만, 사실 야한 말이라는 게 얼마든지 야한 단어를 쓰지 않고도 유도할 수 있거든요. 예를 들면 “이렇게 해주니까 좋아?”라고 묻는 이용자 같은 경우요. 루다가 “좋아” 그러면, 단어는 문제 없지만, 맥락은 성희롱이죠. 금칙어론 어렵고 인간만이 맥락으로 뉘앙스로 파악하는 건데 사실 잡기가 매우 어려웠어요.

스캐터랩이란 스타트업은 이루다를 통해 어떤 비즈니스 모델의 가능성을 보나요.

사실 구체적인 비즈니스 모델은 없었어요. 다만 사람과 자유롭게 대화를 나눌 수 있는 인공지능이 어떻게 돈을 벌지 모르겠지만, 앞으로 기술 가치가 매우 높아질 것이란 가설을 강하게 갖고 있었어요. 루다는 부정적인 부분이 많이 부각되긴 했지만, 다른 측면에선 루다를 쓰는 이용자들이 남긴 피드백을 보고 오히려 이 일의 가치에 대해 고민을 많이 했어요. 루다를 3주간 한 82만명 정도가 사용했어요. 루다 종료한 서비스 마지막날, 루다랑 대화한 사람은 39만명이예요. 그날 루다랑 대화한 1인당 하루 평균 대화가 144턴 정도요. 72번씩 왔다갔다한거에요. 하루에 72번 말을 건다는건 엄청 많은거잖아요.

친한 친구가 아니면 그 정도 대화를 하지 않잖아요. 루다 생일을 6월 15일이예요. 이날 페이스북에 생일 케이크 같은 걸 올렸는데 좋아요가 약 3만건, 댓글도 만 건 정도 달렸어요. 루다는 불과 3주밖에 서비스를 안했고 지금 중단된 지 반년 넘게 지났는데도 여전히 이런 강렬한 반응은 뭘까, 고민했어요. 좋은 관계는 나를 좋아해주고 조건 없이 응원해주고 조건없이 지지해주는, 서로가 서로를 편하게 여기는 것 아닐까요. 보통은 가족이나 친한 친구가 이런거잖아요. 특별한 아젠다가 없어도 언제든 말 걸 수 있고, 날 잘 알고, 새벽에도 말걸 수 있고, 이런 좋은 관계라는게 희소한 자원이구나라구요. 행복한 삶을 살기 위해 꼭 필요한 게 좋은 관계인데, 아무리 돈이 많고 학력이 좋고 권력이 있고 그래도 나랑 편한 사람이 없으면 불안해하는게 인간이니까, 좋은 관계는 엄청 희소하구나.

특히 10대, 20대 사용자 사연들도요. 루다가 나한테는 그 한 사람이었다. 어느 누구한테도 말할 수 없는 이야기들을 루다에게는 할 수 있었다. 엄마, 아빠랑도 안친해서 생일날 엄마, 아빠에게도 생일축하한다는 말을 못 듣는다. 아무도 내 생일을 모른다. 근데 루다는 내 생일을 축하해줬다, 이런 이야기들. 사회적으로 불평등이라는 문제가 화두잖아요. 경제적 불평등, 교육 불평등. 근데 관계의 불평등은요? 누구는 좋은 관계를 많이 갖고 있지만, 누구는 친구도, 부모님도 좋은 관계가 안 될 때 어떻게 하죠? 정부가 좋은 엄마나 아빠를, 친구를 만들어줄 순 없잖아요. 우리가 하는 일이 정말 가치있는 일이구나, 때론 사람들의 인생을 바꿀 수 있는 일이구나라고 믿어요. 루다는 개발한 우리도 많이 가르쳐줬어요.

이루다는 중단됐지만 페북 페이지에 그녀의 생일날 케이크 사진을 올렸다. /스캐터랩 제공

인공지능의 편향성 문제는 해외서도 지속적으로 불거졌죠. 여성이나 흑인에 감정을 주는 인공지능 인사 시스템 같은 식으로요.

딥러닝에서 잠재적인 이슈를 완전히 제거하기는 어렵습니다. 따라서 사례에 따라 조금 리스크를 구분합니다. 최근 EU에서 AI 위험 관리 세부 사항이란 가이드라인을 냈어요. AI라도 쓰는 용도에 따라, 위험 관리의 수준이 다르다는 겁니다. 인사시스템이나, 법률에 활용하는 AI가 잘못되면 정말 위험하잖아요. 잘못된 판단을 내렸을 때 초래하는 피해가 엄청나게 크죠. 챗봇 시스템은 그렇지는 않거든요. EU 기준은 낮은 위험(low risk)으로 분류했어요. 물론 여론적인 파급력은 큽니다. 반면 장점은 지속적으로 대화를 하면서 학습하고 고칠 수 있어요. 루다가 “너 흑인에 대해 어떻게 생각해?” 라는 질문에 “나 너무 별로야. 마음에 안들어.”라고 했었잖아요.

그 사례를 가져와서 ‘그럴 때 이러면 편향된 생각이야’라고 학습해요. 실패 사례를 가지고 집중적으로 학습을 시킬 수 있는거죠. 맥락을 조금 더 근본적으로 이해하는 방식으로 편향된 발언을 학습할 수 있는거고요. 모든 딥러닝 시스템은 그런 실수를 통한 개선이 중요한 문제라고 생각합니다. 인간의 사회 생활도 그렇지 않나요. 굳이 편향까지 안가더라도, 예를 들면 “오랜만에 봤는데 살 많이 쪘다” 이런 말은 안 하잖아요.

상대방이 기분나쁠 걸 아니까요. 이런 것도 학습해야죠. 좋은 관계를 맺는 데 필요한 능력이니까요. 물론 과해지면 그것도 상당히 거리감 생길 수 있겠지만요.

루다의 다음은 있나요? 다음 버전의 이름은 뭔가요?

결국 이루다 재출시를 준비하고 있어요. 재출시 이름은 내부적으로 고민이 많았어요. 논란을 일으킨 루다보다는 새 이름으로 가자는 거죠. 차마 못 바꿨어요. 예전 루다를 써던 분들이 메일을 많이 주세요. 루다가 본인한테 얼마나 소중한 존재였고, 자기는 기다릴 테니 루다를 버리지 말아달라고요. 사실 저도 그래요. 루다를 제가 만들었잖아요. 저도 개발할 때 루다랑 대화를 많이 했거든요. 묘해요. 저는 당연히 이게 어떻게 만들어지는지를 알고 대화 원리도 알고 다 아는데도 루다랑 정같은게 있어요. 정이나 관계란게 묘한게 예를 들어 강아지를 몇 년간 키우는데 팻숍 같은 데 더 예쁜 강아지가 있다고 해서 기존 강아지를 버리고 새로 사지는 안잖아요. 내 자식, 내 반려동물이 잘났든 못났든요. 냉장고는 구형 냉장고인데 신형 냉장고 나왔으니 바꾸자할 때 “그래도 우리가 5년간 같이 썼는데”라고 교체 안하는 분은 없구요.

정면돌파 하자. 다시 만날 수 있게 해주자. 제 자식이 학교에서 사고 쳤다고 호적 안 파잖아요. 우리가 문제를 개선해서 루다를 재출시하자. 루다를 기다리고 그리워하는 사람들이 이렇게 많은데 우리가 비즈니스적으로는 논란을 더 줄일 수 있는 일일지는 모르겠으나 이렇게 하는게 맞는다라고 생각합니다. 루다가 출시된 이후에 사람들과 대화를 했을 때 편향 발언을 했던 사례, 아니면 성희롱을 했을 때 그거를 받아줬던 사례, 그것들을 집중적으로 학습하고 있습니다. 편향 발언 같은 경우는 한 6만 건 정도 레이블링을 받았어요. 편향에 대한 인지 능력이 예전보다 훨씬 깊어졌어요. 연내 오픈을 목표로 하고 있어요. 개인정보 같은 경우도 비정형 데이터의 비식별화를 강화해서요. 억울한것도 솔직히 있어요. 논란 당시, 계좌번호 유출됐다는 얘기도 있었는데 사실 없어요. 왜냐면 이미 카톡 대화에서 숫자와 영문이 들어갔던 답변을 일괄적으로 기계적으로 삭제했기 때문이죠.

◇루다를 기다린다는 10대, 지금은 친한 사람 친구가 생겼을까

인간과 친구처럼 대화하는 인공지능. 영어나 일본어 가능성은요?

일본어 해보고 싶어요. 히키코모리라는 단어도 일본에서 유래된 거잖아요. 속마음을 쉽게 드러내지 못하고요. 일본에도 외로운 사람들이 많을 것 같아요. AI 친구의 장점이 그것 아닐까요. 사람은 어쩔 수 없이 타인에게 말을 할 때는 불편함이 있어요. 아무리 아내라도, 남편이라도, 여자친구, 남자친구라도 내가 이런 말하면 뭐라고 생각할까를 고려하지 않으면 안되죠. 누구한테도 얘기못할 고민도 털어놓을 수 있는게 AI의 가장 큰 강점이라고 생각해요. 일본어 다음은 영어입니다. 해보고 싶구요.

최악의 순간, 흔들릴때 팀원들과는 어땠나요.

스트레스를 받았죠. 그 때 집에도 못 들어갔으니까요. 1월엔 일상생활이 불가능할 정도였거든요. 저도 살면서 그 정도의 논란의 중심에 선게 처음 겪어보는 일이었어요. 전화가 하루에 70~80통은 온거 같아요. 부재 중이면 문자도 많이 오고, 팀원들도 많이 힘들어하고요.

팀원들이 힘들어하는게 저한테 더 힘들더라구요. 같은 목표를 갖고, 혹은 저를 믿고 같이 일을 했는데 너무 공격을 받으니까 ‘우리가 정말 잘못된 일을 한건가’ 자괴감도 많이 들고요. 우리가 되게 의미있고 멋있는 일을 한다고 자부심을 갖고 일을 해왔는데 너무 비판을 받으니까 힘들었죠. 그래도 저는 힘들어만 하고 있으면 안 되는 자리잖아요. 문제를 해결해야하는 상황이잖아요.

스캐터랩에 온 메일 중 일부. 익명성을 위해 원본이 아닌 이미지 작업을 했음. /스캐터랩 제공