뤼튼소식

AI 캐릭터 챗봇 논란 보도 관련해 말씀드립니다.

date_range 2025년 01월 10일

안녕하세요. 뤼튼테크놀로지스입니다.

1월 9일과 10일 각각 온라인과 지면으로 보도된 AI 캐릭터 챗봇 논란 중앙일보 기사와 관련해 말씀드립니다.

[1월 9일 온라인] [팩플] AI 캐릭터 챗봇으로 돈 번다는데…성착취 대화 논란 커진다
[1월 10일 지면] 독이 든 성배였나… AI캐릭터챗 서비스 ‘음란 대화’ 논란

이 기사는 “비즈니스 모델(BM) 찾기에 어려움을 겪었던 생성 AI 스타트업들이 ‘캐릭터챗(대화) 서비스’를 내놓으며 매출을 올리기 시작했다. 하지만 이용자들이 해당 서비스를 성적으로 악용하는 경우가 늘어나면서 업체들이 이를 방관하는 것 아니냐는 논란이 커지고 있다”며 저희 뤼튼이 제공중인 ‘캐릭터 챗 서비스’를 대표적인 사례로 집중적으로 거론하며 기사 분량 대부분을 할애했습니다.

먼저 이 기사의 주요 핵심 부분들은 부실한 취재로 사실 관계가 누락되었거나 사실이 아니며, 저희 답변을 왜곡해 인용했음을 알려 드립니다.

(1) ‘성인 인증’ 제도의 고의적인 누락

뤼튼에서 성인 전용 AI 캐릭터와 대화를 나누기 위해서는 반드시 ‘성인 인증’을 거쳐야만 합니다. 뤼튼은 ‘세이프티 필터’를 통해 AI 캐릭터 특성에 따라 ‘세이프티’와 ‘언세이프티’를 분류하고 있습니다. 그리고 ‘성인 인증’을 거친 이용자와 그렇지 않은 이용자에게 각각 다른 접근 권한을 부여하고 있습니다. 이번 보도는 그 주제상 이 정책을 가장 주요하게 다뤄야 함에도 불구하고, 언급조차 하지 않았습니다.

더구나 취재 기자는 앞선 취재 과정에서 ‘세이프티 필터’에 대해 질의했으므로, 그 존재를 몰랐던 것도 아닙니다. 그럼에도 기사 내용에서 전혀 다루지 않은 것은 고의적인 사실 관계 누락일 수 밖에 없습니다.

(2) 보편적인 업계 서비스 방식과 유사 사례 외면

뤼튼 캐릭터 챗 서비스는 성인 인증을 거쳐 전체 이용이 가능한 콘텐츠와 성인 전용 콘텐츠를 구분해 제공하고 있습니다. 이 방식은 유튜브나 네이버웹툰, 리디 등 대부분의 콘텐츠 서비스 플랫폼이 시행하고 있는 정책과 동일합니다.

해당 보도는 콘텐츠 서비스 플랫폼의 일반화된 이러한 서비스 방식에 대해서는 전혀 언급하지 않았습니다. 설령 AI 콘텐츠 서비스만으로 범위를 좁힌다고 해도, 뤼튼 캐릭터 챗과 유사한 타 AI 서비스들에 대해서는 구체적인 사례를 일절 언급하지 않았고 오로지 뤼튼 사례만을 다뤘습니다.

뤼튼은 앞서 말씀드린 것처럼 ‘성인 인증’ 제도를 시행하고 있으며, 오히려 성인 전용 콘텐츠임에도 지나치게 엄격한 관리 운영 정책을 적용한다는 이용자 불만들까지 접하고 있는 상황입니다. 이러한 사실들은 해당 보도에서 다뤄지지 않았습니다.

(3) 기사와 무관한 <AI 이미지 생성 서비스> 답변의 잘못된 인용

이 기사는 “뤼튼은 이에 대해 ‘프롬프트 입력 단계에서 사회적 윤리 기준에 어긋나거나 통념에 위배되는 키워드들은 차단하고 있다’고 설명했다”고 보도했습니다. 당초 이와 관련된 취재 기자의 질의는 “(이용자) 자기가 만든 이미지”에 대한 것이었습니다. 뤼튼은 캐릭터 챗과 별도로 <AI 이미지 생성 서비스>를 제공하고 있습니다. 이용자는 이 서비스로 이미지를 스스로 만들 수 있습니다.

해당 보도가 인용한 뤼튼의 설명은 바로 이 <AI 이미지 생성 서비스>에 대한 답변이었습니다. 취재 기자는 캐릭터 챗 서비스와는 무관한 <AI 이미지 생성 서비스> 설명을 캐릭터 챗 관련 답변으로 잘못 인용했고, 정작 핵심 정책인 세이프티 필터에 대해서는 아예 언급하지 않았습니다.

(4) ‘슈퍼챗’ 도입과 ‘MAU 500만 돌파’ 인과 관계 오류

이 기사는 “뤼튼은 이 서비스에 지난해 10월부터 부분유료화 모델인 ‘슈퍼챗’을 도입했다…… 유료 모델 도입 결과는 현재까지 성공적이다. 월간 활성 이용자 수(MAU)는 500만명을 넘겼고 매출도 급증했다”고 보도했습니다.

뤼튼이 ‘슈퍼챗’을 도입한 시점은 24년 10월 30일입니다. 이 시점에 뤼튼의 MAU는 이미 500만명을 돌파한 상태였습니다. 당시 뤼튼은 월간 활성 이용자 수 500만명 돌파를 알리는 보도자료를 작성해 두었으며, 슈퍼챗 도입 이튿날인 31일 오전 8시 언론 배포를 진행했습니다.

문제의 보도 내용 대로라면 뤼튼은 유료 모델 도입의 성공적인 결과로 이용자가 급증하면서 유료 도입 하루만에 갑자기 MAU 500만명을 넘겼어야 합니다. 그러나 이 부분은 보시다시피 전혀 인과 관계가 성립하지 않으며 사실 역시 아닙니다.

(5) 사명(社名) 오류

무엇보다 이 보도의 취재가 부실했음은 기자가 저희 사명조차 바르게 표기하지 못했다는 사실에서 단적으로 드러납니다.

저희 사명은 기사 중 명기된 ‘뤼튼테크놀로지’가 아니라, ‘뤼튼테크놀로지스’입니다. 잘못된 사명은 1월 9일자 온라인 기사는 물론, 데스크와 내부 교열을 거치는 과정에서도 바로 잡히지 않았으며 1월 10일자 정식 신문 지면에서까지 그대로 활자화되어 게재됐습니다.

(6) 맺으며

저희 뤼튼은 무엇보다 안전한 AI 서비스가 가장 중요하다고 믿습니다. 이번 보도에서 언급된 부정적 사례들이 일부 존재하는 것도 사실입니다. 그래서 뤼튼은 실시간 모니터링과 함께 현재 적용중인 세이프티 필터 및 콘텐츠 관리 정책을 지속적으로 점검하고 관리 운영 원칙에 위배되는 캐릭터를 제제하는 등 안전한 서비스 운영에 만전을 기하고 있습니다.

또한 이에 그치지 않고 최근에는 모 로펌과 정식으로 계약을 맺고 안전한 AI 캐릭터 채팅 보완점 도출을 위한 프로젝트를 진행하고 있습니다. 이 프로젝트가 마무리되면 더욱 안전하면서도 법적, 제도적으로 안정적인 AI 서비스를 선보일 수 있을 것으로 기대합니다.

이번 보도로 인해 저희 뤼튼에 대한 오해가 없으시길 바라며 다소 길게 말씀 올렸습니다.

뤼튼은 지금까지 그러했던 것처럼 대한민국을 대표하는 컨슈머 AI 서비스 기업으로서, AI 대중화를 위해 계속 달려나갈 것입니다. 보다 쉽고 편리하고 재미있는 AI 서비스, 무엇보다 안전하고 책임있는 AI 서비스를 위해 쉼없이 노력하겠습니다.

감사합니다.