5시는 경상도, 7시는 전라도

2869

#악플 바이러스 #50개가 20만개로 #청소팀

혹시 ‘팩플’이라고 들어보셨나요? 똑개비뉴스처럼 이메일로 받아보실 수 있는 중앙일보의 뉴스레터중 하나입니다. 똑개비뉴스는 사회, 경제, 문화, 국제 등 다양한 분야를 다루지만, 팩플은 ‘비즈니스의 미래(Future of Business)’를 취재합니다. 매주 화·목·금 잘나가는 기업들의 최신 소식과 이슈 해설을 이메일로 보내드리고 있죠. 유익한 정보들이 많아 똑개비뉴스 구독자들께 추천해드리려 합니다. 맛보기로 지난 9일 발송된 207호 팩플레터를 아래 정리했습니다. 읽고나서 구독을 원하시면 아래 링크를 클릭하시면 됩니다.
팩플레터 구독하기

207번째 팩플레터는 네이버의 ‘댓글 청소팀’을 소개했습니다. 최근 가장 댓글이 많이 달린 주제가 아마도 제20대 대통령 선거 관련일겁니다. 읽을 때마다 느끼지만 댓글은 ‘양날의 검’입니다. 사람들이 기사에 대한 생각을 나눌 수 있게 해주는 ‘공론의 장’ 역할을 하는 한편 ‘악플’을 양산해 큰 피해를 주기도 하죠. 부작용이 있음에도 댓글 서비스가 유지되는 것은 소통하고 싶은 사회적 수요를 충족하고 기사에 대한 생각을 나누는 공론의 장이라는 순기능을 해줄 것이란 기대가 반영된 결과이겠죠. 네이버 댓글창을 건전한 공론의 장으로 만드는 3명을 팩플레터가 만났습니다. 이규호 미디어인텔리전스 리더, 이태호 미디어인텔리전스 개발자, 임남정 그린UGC 리더입니다. 만나보시죠.

네이버 댓글 서비스에 대해 설명해줘

네이버 뉴스 댓글 서비스는 2004년 시작됐습니다. 요즘은 하루 평균 70만개 안팎의 댓글이 달리죠. 네이버는 2012년 욕설을 ‘***’으로 자동 변환하는 것을 시작으로, 인공지능(AI)을 활용해 댓글창을 청소해왔는데요. 2019년에는 AI가 자동으로 욕설과 폭력적 표현을 탐지해 차단해주는 ‘클린봇 1.0’을 포털업계 최초로 선보였습니다. 2.5 버전까지 나온 클린봇은 적용 범위를 단순 욕설에서 선정적·폭력적·성범죄 옹호 표현까지 확장했습니다. 지난 2월 개최된 베이징 동계 올림픽 때부턴 비하·차별·혐오 특화 모델을 추가로 적용했죠.

비하·차별·혐오 특화 모델? 이전과 뭐가 달라?

좀 더 잘 탐지할 수 있는 모델을 개발했습니다. 기존 클린봇은 범용 모델입니다. 욕설은 잘 잡지만 다른 특화된 세부 표현에서는 부족한 부분이 있었죠. 목표물을 정확하게 조준해 잡는 모델을 추가하는 중입니다. 지난해 성적 표현 특화 모델을 추가했고 이번에는 비하·차별·혐오 탐지 모델을 적용했죠.(이규호)

예를 들면?

예컨대 ‘겨땀 생각만 해도 역겹다’‘그지같이 하네’‘뭘 안다고 지껄이는건지’처럼 대놓고 욕은 안하지만 상대방을 깔보고 비하하는 표현을 잘 잡습니다. 또 ‘은메달 따도 한남(한국남자 비하표현)…’‘독기 바짝 오른 한녀(한국여자 비하표현) 그 자체네 ㄷㄷㄷ’ 같은 성차별적 표현, ‘전라도=빨갱이’ 같은 지역 차별적 발언을 기존 클린봇보다 잘 걸러냅니다.(이규호)

서비스별로 특화된 표현들도 잘 걸러냅니다. 예컨대 스포츠에선 ‘처발리네’‘이것들 쳐 노냐 마구 달려라’ 같은 표현이 댓글에 많은데 이번에 비하·차별·혐오 탐지 모델 적용하면서 그런 것들이 많이 학습됐고 차단됐죠.(임남정)

성능, 얼마나 좋아졌어?

지난해 도쿄 올림픽 때와 이번 베이징 동계 올림픽(선수톡·응원톡)을 비교하니 악플 검출량은 140% 증가했습니다. 반면 이용자 불편 신고건수는 37.5% 줄었죠. 악플에 덜 노출됐다는 의미인데요. 댓글은 흐름이 중요합니다. 위에 욕이 있으면 밑에도 감정섞인 댓글이 줄줄이 달리죠. 특히 올림픽은 국가 대항전이라 개인간 분쟁이 국가간 분쟁으로 확산될 수도 있어서 빨리 차단하는게 중요합니다. 이번 베이징 올림픽은 쇼트트랙 관련 편파판정 논란도 있어 해당 시점 악플이 평상시보다 5배 가까이 증가하는 등 이슈가 많았습니다. (임남정)

아무리 악플이라도 함부로 걸러내면 표현의 자유 침해아닌가? 기준이 뭐야?

사람마다 판단 기준이 다르기 때문에 단순 규칙 기반으로 비하 표현을 나누기에는 어려움이 있었습니다. 이를 해결하기 위해  표현의 통계적 특성을 모델에 반영하고자 했죠. 즉, 여러 사람이 태깅(taggingㆍ비하 여부를 구분하는 과정)에 참여하도록 해 평균적 기준이 AI 모델에 반영되게 했습니다. 예컨대 하루 평균 70만건의 네이버 댓글 중 비하·차별·혐오 표현으로 신고 들어온 댓글로 통계를 내 활용한다는 의미입니다. 또 모델 예측과 일치하지 않는 데이터를 재검토 하는 과정도 반복해 성능을 고도화했습니다.(이규호)

차단 기술 개발 어려웠을텐데

성폭력 탐지 모델을 만들 때는 네이버 생태계 내에서 데이터를 구할 수 없다는 게 어려웠습니다. 절대 다수 이용자들이 명백한 성희롱 표현은 쓰지 않습니다. 대신 최대한 간접적으로, 혹은 대상을 지칭하지 않고 표현하는 경우가 많았습니다. 동시에 성희롱 표현의 빈도도 매우 낮았는데요. 그래서 외부 커뮤니티를 돌아다니며 그런 발언을 보기도 하고 수작업으로 제작해 학습시키기도 했습니다. 반대로 비하·차별·혐오 모델은 데이터는 쉽게 구하는데 관련 연구나 지표, 기준이 없어서 모델을 만들기 어려웠습니다. 개발자 본인이 일말의 ‘비하’를 느껴, 누군가에게 상처가 될 수도 있다고 판단해 그 기준으로 클린봇을 만든다면, 클린봇 경고가 너무 남발될 수 있습니다. 이 때문에 앞서 언급한 통계 방식을 적용했죠.(이태호)

신조어가 많아서 걸러내기 어렵지 않나?

맞습니다. 창과 방패의 대결이라고 할까요. 신조어도 많이 생기고 새로운 의미도 많이 부여됩니다. 우리도 몰랐는데 어떤 커뮤니티에선 5시하고 7시가 지역 차별 의미를 지닙니다. 5시는 경상도, 7시는 전라도를 의미하죠. 글자만으론 비하·차별·혐오가 아니지만, 문맥상으론 그렇습니다. 이런 점들을 빠르게 모델에 반영하는게 쉽지 않습니다.(이규호)

결국엔 우리 모델이 특정 데이터를 분야와 흐름에 맞게 빨리 학습하는지가 중요합니다. 이를 위해 서비스별 악플의 특징, 시간에 따라 변하는 악플의 특징을 AI 모델에 실시간으로 반영하는 플랫폼을 개발하고 있습니다. ‘토르(Thor)’라고 부르죠.(이태호)

욕설은 어떻게 차단해?

욕설도 변화무쌍하기 때문에 어렵습니다. 아마도 네이버가 한국에서 욕설 데이터를 가장 많이 가지고 있을 것 같은데요. 댓글 서비스 시작할 때부터 수집해왔죠. 모든 욕의 시작이 되는 ‘원형 욕설’이 약 50개 정도입니다. 그런데 이 50개가 20만개로 변화합니다. 예컨대 ‘호로’(외국인을 낮잡아 이르는 말)라는 욕은 ‘호로새X’, ‘ㅎㄹㅅX’‘호로 ㅅ ㅐX’ 등으로 변화한다 호로만 가지고도 1953개 욕이 나옵니다. 지금도 확장되고 있죠.(임남정)

또 어려운 게 있어?

주어가 없는 애매한 발언들이 있습니다. 이런 걸 탐지하는 게 어렵고 도전할 부분입니다. ‘크다’라는 단어는 아무런 맥락이 없지만 여성 사진을 놓고 저 표현을 쓴다면 문제가 될 수도 있죠. 이런 기준에 대한 고도화가 필요합니다.(이규호)

일부 커뮤니티에서 꼰대라는 표현이 ‘이 분야 전문가’라는 느낌으로 통하는 걸 본 적 이 있습니다. 그래서 무조건 저 단어는 나쁘다, 이 단어는 좋다라고 하기 어렵죠. 서비스별로, 시대별로 언어의 의미가 달라집니다. 그런 점이 어렵습니다.(이태호)

악플 탐지 기술 왜 계속 업그레이드 하는거야?

최초의 댓글 공간은 해우소 역할을 했습니다. 하지만 클린봇을 통해 분위기를 바꿔나가면서 기사에 대한 의견을 나누는 ‘공론의 장’ 역할도 하게 됐다고 생각합니다. 소통의 가치는 정말 중요합니다.(이규호)

‘대(大)혐오 시대’라고까지 말할 정도로 갈등이 많은 시대입니다. 어떻게 하면 갈등이 줄어들수 있을지 기여하는 방법을 찾고 있습니다. 악플 탐지 기술을 고도화하는게 그 중 하나입니다.(이태호)

악플은 어디에나 존재합니다. 네이버 만의 문제가 아니죠. 네이버에서 댓글을 중지한다고 문제가 해결되는게 아닙니다. 댓글창을 없애는 게 능사가 아니라는 얘기입니다. 우리는 기술을 통해 이런 공간이 사람들이 더 좋은 글을 적고, 쾌적하게 이용할 수 있도록 노력하고 있습니다. 댓글은 그 자체로도 훌륭한 콘텐트가 됩니다. 그렇게 되려면 악플을 잘 걸러야 하죠.(임남정)

상습 악플러는 어떻게 해?

누군가가 그를 멈춰줘야 합니다. 스스로 멈추기는 굉장히 어렵죠. 그래서 과도한 욕을 반복해서 하는 이용자는 3시간 정도 이용을 막습니다. 더 반복되면 정지 기간을 늘리죠. 그런 경우에는 고객센터에 전화해서 ‘다시는 욕 안 하겠다’고 얘기하는 사람들도 있습니다.