상상 속의 음란물 차단 기술과 현실

"두려웠다.
독자들이 우리보다 힘이 생기는 것이 두려웠다.
일개 기업들이 우리를 깔보는 것이 기분 나빴다.
세상을 우리 힘으로 움직일 수 없다는 것이 불쾌하다."

언론들이 포털 서비스와 UCC에 대해 집중포화를 날리는 배경이 아닐까 싶습니다.

말은 다 동감하며 그 상황이나 정황 역시 이해합니다.

하지만 어제 왜 그만은 "잘들 논다. 음란물 찾기에 눈만 벌건 기자들"이란 포스트를 통해 화를 냈을까요. 음란물 대책을 해당 사안으로 집중하지 못하고 문제를 확대시키고 침소봉대하면서 난리 치는 그들의 논리가 허무맹랑하며 그에 대한 정부와 업계의 대처가 지나치게 소극적이어서 그렇습니다.

어제는 분개를 하는 바람에 띄엄띄엄 내용을 건너 띄었지만 지금부터 왜 그만은 음란물 사건에 대해 화가 났었는지 구체적인 배경을 설명드리겠습니다.

그렇다면 음란물 감지 시스템이 존재하느냐.

현재도 있습니다. 자동으로 음란물을 인식할 수 있는 기술이 있습니다. 지란지교소프트의 경우 지금도 음란물 동영상을 재생시킬 수 없는 기술을 보유하고 있으며 일부 ISP를 통해 서비스하고 있습니다.

깜짝 놀라셨나요? 음란물 동영상을 인식하면 모든 포털업체들이 그 기술을 도입하면 되는 것 아니냐는 말씀도 하실 것 같군요.

하지만 분석 기법이 다릅니다.

지란지교소프트가 동영상 파일을 음란물인지 판단하는 기준은 해당 파일에 대한 패턴을 분석하는 것입니다. 원본 동영상(또는 인터넷으로 유통되고 있는 불법 동영상 포함)의 패턴은 파일의 정보를 갖고 있는 헤더 부분에서 읽어들입니다.

예를 들어 XXX 동영상의 경우 85.673MB이며 재생시간이 1시간 12분이고, 음성이 포함돼 있고 DivX avi로 인코딩 돼 있다는 등의 메타 정보와 패턴을 원본 동영상과 매칭시켜보면 이 파일이 음란 파일인지 판단해낼 수 있습니다.

지란지교소프트 역시 이 기술로 화면을 읽어들여 색깔을 분류해내는 식은 아니라고 설명합니다.

따라서 음란물인지 아닌지는 전적으로 원본과의 대조를 통해 이뤄져야 하는 것이죠.

문제는 이 음란물을 한 번만 다른 파일로 인코딩시키거나 변환, 또는 편집한다면 원본과의 매칭이 되지 않기 때문에 새로운 파일이 돼 버립니다.

일부 영상 안면 인식 기술을 말씀하시는 분들이 있습니다. 물론 IBM 연구소에서도 CCTV를 이용해 출입자의 동선을 파악하는 기술을 개발중이며, 국내 안면 인식 보안 업체들도 활발하게 기술을 개발진행중입니다. 하지만 안면 인식 기술은 동영상이 음란한지 여부를 판단하는 기술과는 근본적으로 차이가 있습니다.

현재 UCC 업체들은 음란물 검색 차단을 어떻게 하고 있을까?

판도라 측에서 보내온 자료와 업계의 필터링 기법은 거의 유사할 것으로 생각되어서 인용하겠습니다.

"판도라TV의 경우 하루에 약 5,500∼6,000개 업로드 되는 동영상을 키워드 차단과 모니터 요원을 이용한 2단계 동영상 필터링 방식을 통해 365일 24시간 모니터링을 실시하고 있다.

우선, 1차로 키워드 차단을 통해 대부분의 성인관련키워드의 검색을 차단하고, 2차로 모니터링 팀에서 사람이 직접 최종적으로 필터링 작업을 마무리한다. 모니터링 팀은 국내 30명과 중국 10명으로 구성되어 있으며 실시간 핫라인으로 서로 연계되어 업무의 효율을 높였다.

동영상의 속성상 모니터링 시스템 운영이 어렵지만, 32배속 고속 재생 기능을 이용하여 일일이 확인하고 있으며 24시간 3교대 모니터링을 지난 2006년 9월에 도입하여 지속 실시하고 있다. 모니터링 요원들은 신규 프로그램 리스트 페이지를 주말에도 쉬지 않고 24시간 감시하며 유해 동영상과 불법 동영상을 차단하고 있다."

우리의 상식선을 넘어선 기술은 아직 없습니다.

야후 야미 출범식이 있었던 날 그만은 야후에게 "동영상 검색은 매우 생소하다. 인터넷에서 동영상을 긁어온다는 것이 매우 위험한 발상 아닌가. 폭력, 음란, 유해 동영상이 노출될 경우도 있을텐데..."

야후는 이렇게 말했죠. "야후는 최고의 검색 기술 전문가들이 있다. 야후의 기술진은 동영상 자체를 분석하기는 힘들지만 동영상과 연결돼 있는 사이트의 패턴, 검색어와 해당 동영상 설명과의 매칭 등을 통해 기존의 음란물 사이트 차단 방식을 확장시킨다고 보면 된다."

그만은 음란 동영상을 유해한지 여부를 확인하기 위해 기술적인 모니터링이 필요하다는 것도 인정합니다.

하지만 그만도 다음, 엠파스, 네이트, 판도라TV, 엠군, 나우콤(아프리카), 다모임(엠앤캐스트) 등 관계자를 만날 때마다 물어봅니다. 유해 동영상 걸러낼 수 있느냐고.

'모니터링 강화' 이외에는 답이 없었습니다.

근데 대뜸 네이버가 "인종별로 사람의 피부색과 비슷한 이미지가 전체 몇% 이상을 차지할 경우 음란물로 판단해 자동 필터링 할 수 있는 기술"을 운운하며 기술적인 필터링 방법을 제시할 듯이 말하는 것에 화가 나더군요.

그 프로젝트가 실행되더라도 적어도 3년 안에는 나올 수 없는 기술일 겁니다.

그 기술이 나오더라도 갖가지 피해갈 수 있는 꼼수는 나올 수밖에 없습니다.

특히 UCC 동영상의 경우 사용자가 파일을 올리는 매순간 같은 파일이라도 다른 사용자가 올리면 인코딩 시간과 방식에 따라 전혀 다른 패턴을 갖는 경우가 생깁니다.

어떤 분은 1000개 동영상을 다 볼 수 없으니 기계로 500개를 걸러내고 이를 사람이 모니터링하면 좋은 거 아니냐고 말할 수도 있을 겁니다. 현재의 모니터링이 거의 그렇습니다. 금칙어, 검색어, 또는 연결성 등을 통해 걸러내고 나머지를 전량 조사하는 방법입니다.

근데 지금 문제가 된 것은 나머지 500개 가운데 1개 동영상일 경우입니다. 그 1개 때문에 500개를 눈 빠지게 봤던 모니터링 시스템은 완전 무가치해보이는 상황이 발생된 것입니다.

그리고 또 하나, 문제가 있는 서비스라면 내려야 정상입니다.

지금의 포털이 너무 많은 것을 혼자 소화하려니 이런 문제들이 생기는 것일 수도 있습니다.

2003년 9월 MSN은 채팅 서비스를 폐쇄한 적이 있습니다. 이 때는 어린이들이 채팅을 통해 사회적인 폭력에 노출되는 것을 방지해야 하는데 현실적으로 이를 막기 위해서는 채팅룸을 아예 서비스하지 않는 것이 낫다는 판단에서였다고 합니다.

MSN to close chat rooms[CNN, 2003. 9.]

야후가 야미 서비스에 사실상 중단 결정까지 내리면서 신중히 접근하려는 이유는 이러한 사회적인 책임과 기대에 대해 서비스 기업들이 어떻게 반응해야 하는지 알고 있기 때문입니다.

서비스 업계는 선택해야 합니다. 더 많은 비용을 들여 모니터링과 사용자 통제, 신고 대응 등 대처를 늘려가든가, 서비스를 접든가.

그런 면에서 네이버가 발빠르게 모니터 요원을 100여명 증원할 것이란 이야기에는 매우 고무적입니다. 살색 영상 모니터 기술 이야기만 빠졌어도 그만은 박수를 쳤을 것입니다.

언론이 오버한다고 서비스 기업들이 오버할 필요는 없죠. 냉정하게 현실을 설명하고 대처 방안에 대해 치밀하게 준비하는 것 이상은 별로 없다는 것입니다. 상상속의 기술을 미리부터 입밖으로 꺼내지 말았으면 좋겠습니다.
스마트플레이스의 글을 편리하게 구독하세요. 한RSS 추가 구글추가
크리에이티브 커먼즈 라이센스
Creative Commons License이 저작물은 크리에이티브 커먼즈 코리아 저작자표시-비영리-변경금지 2.0 대한민국 라이센스에 따라 이용하실 수 있습니다.

트랙백 (0) | 덧글 (15)
트랙백 주소: http://www.smartplace.kr/trackback_post_130.aspx
스마트플레이스의 트랙백은 스팸방지를 위해 관리자 승인 후 등록됩니다.

gofeel 2007-03-23 12:33:39     답글 삭제
비밀 댓글이 등록되었습니다.
그만 2007-03-23 12:57:54     삭제
수정했습니다. 감사합니다.

메이앤 2007-03-23 12:42:56     답글 삭제
"두려웠다.
독자들이 우리보다 힘이 생기는 것이 두려웠다.
일개 기업들이 우리를 깔보는 것이 기분 나빴다.
세상을 우리 힘으로 움직일 수 없다는 것이 불쾌하다."
저도 기자인데,제가 모르는 저의 의도를 간파하셨네요.
그만 2007-03-23 13:01:52     삭제
어찌보면 그동안 그 이상의 역할을 해왔음에도 최근 도매금으로 욕을 먹거나 상대적으로 힘이 약해지는 상황에서 역으로 생길 수 있는 피해의식이라고 생각합니다.
물론 이런 의식이 절대 없이 기자적 사명감으로 열심히 일하고 있는 언론인이 더 많다는 것도 압니다.
반대로 '웃기고 있네, 거봐 니들이 그렇지' 정도의 비아냥을 포털에 날리고 있는 것일지도 모르겠습니다. 사실상 인터넷에 가장 먼저 대응하고 가장 잘 이용하면서 가장 잘되도록 도와주는 곳도 언론사일 겁니다.
양쪽이 서로 윈윈할 수 있는 모습을 기대해봅니다. 의견 감사합니다.

메이앤 2007-03-23 13:08:30     답글 삭제
저는 웹이 기존 미디어의 한계를 타파하는 훌륭한 수단이 될 것이라고 믿고 있습니다.올블로그도 계속 관심있게 지켜보고 있는데,요즘 드는 생각이,블로고스피어가 기존 미디어가 제한적 속성상 미처 감지하지못하는 '팩트'나 'view'를 생산해내는 '생산적'매체가 아니라 다른 미디어의 '의도'를 공격하는 수준에 머문다면 보편화되기가 어렵지않을까 생각하고 있습니다.저는 최근의 우리나라 '비판'의 가장 큰 문제가 '의도'를 공격하는 것이라고 생각합니다.노무현대통령의 패착이기도 하죠.나의 의도만 선하고,다른 사람들의 의도는 모두 목적 지향적이라고 생각하는 것보다 더 나쁜 독재는 없다고 생각합니다.의도가 아니라 방법이나,과정을 비판하고 대안을 제시해야한다고 생각합니다.
그만 2007-03-23 13:23:27     삭제
안타깝게도 의도에 대한 공방은 논의를 끝없이 이어지게 합니다. '도대체, 왜, 지금, 이 시점에서' 등을 말입니다. 이러한 경향을 블로고스피어가 보이고 있다는 점도 인정합니다. 하지만 모든 주장을 담은 글은 의도를 담고 있는 것도 사실입니다. 다만 그 의도는 은연중에 드러나기 마련이며 그 의도에 대해서 역시 추측이 난무하겠죠.
대부분 좋은 의견이시기 때문에 인정을 합니다만,
"의도가 아니라...'를 '의도 뿐만 아니라...'로 바꾼다면 100% 동감합니다.

너른호수 2007-03-23 14:19:02     답글 삭제
헛,. 어제 기사보고 코웃음쳤던 부분이었는데 네이버에서 기술적으로 하겠다라는 걸요 그래서 장난삼아 화면 전체에 살색이 몇% 이상 얼마간 지속되면 음란물이라고 하면 되겠다라고 했었는데,. 네이버가 장난수준에서 노는군요. -.- 물론 장난수준이 실현된다면,. 흠,.
그만 2007-03-24 00:25:41     삭제
기자도 그렇고 네이버도 그렇고 뭔가 획기적인 것이 없을까에 대한 아이디어 차원의 말이 확대된 것으로 보입니다. 그 이상도 그 이하도 아니죠. 그런 기술이 있거나 개발중이라면 좀더 혁신적이어야 할텐데요.. 문제는 '음란'의 기준이 모호하다는 것이죠. 물론 누가봐도 '포르노'를 누구나 볼 수 있도록 올려 놓는 행위는 '범죄행위' 맞습니다. 하지만 기술로 그 범죄행위를 가려낸다는 것 자체가 모순입니다.

메이앤 2007-03-23 14:49:45     답글 삭제
올드 미디어는 나쁜게 아니라 낡았을 뿐입니다.모든 낡은 것은 스스로의 한계 때문에 새로운 것에 의해 대체되기 마련이죠.그것이 바로 진보이고요.가령 (저의 경우를 본다면) 올드미디어가 나빴던 것은 '결과로서의 의도'가 노정됐기 때문이죠.그래서 인터넷이라는 새로운 미디어가 각광받는 것이고요.문제는 그렇다고 해서 '모든 새로운 것은 다 좋다'는 것은 아니라는 것입니다.새로운 것에도 '의도'와 상관없이 나쁜 점이 있죠.또한 새로운 것은 단점은 낡은 것의 장점에 비춰볼 수 있고요.따라서 낡은 것의 '의도'가 아니라 한계를 지적함으로서 새로운 것의 장점을 키워가는 것이 올바른 발전의 방법이라고 생각합니다.웹2.0도 그런것 아닌가요? 휴먼터치에 의존하는 웹1.0이 '착한 의도'에도 불구하고 노정됐던 한계를 극복하는 방안이지,웹1.0의 의도가 나쁘기 때문에 갈아엎자는 것은 아니라고 생각합니다.내 의도가 순수하다면,다른 사람의 의도도 존중하는 것이 '인간적'이라고 생각합니다.인간은 부족한 것이지 나쁜 것은 아니라고 생각하거든요.
그만 2007-03-24 00:33:31     삭제
'의도'에 대한 여러가지 생각을 할 수 있게 만들어준 댓글입니다. 메이앤님께 감사드리구요. '인간은 부족한 것이지 나쁜 것은 아니다'라는 말씀에 깊은 동감을 보냅니다. 이 글의 도입부에서 '언론의 불순한 의도'를 강조하면서 허무맹랑한 살색 인식 기술 문제를 전개하는 식의 글 흐름이 불편하셨던 것으로 보입니다. 이 글의 주제는 음란물 차단 기술에 대한 내용이며 주변의 상황에 대해 언론이 침소봉대하는 모습을 보면서 답답함을 피력한 것으로 이해해주시기 바랍니다. 오히려 그런 전개방식이 주제를 혼돈스럽게 만들었다면 그만의 일천한 글솜씨를 탓해주시기 바랍니다. 다만 이 글을 쓴 그만의 의도도 그리 나쁘거나 불순하다고 생각지는 말아주세요. ^^;

미디어몹 2007-03-24 11:29:42     답글 삭제
스마트플레이스 회원님의 포스트가 미디어몹 헤드라인에 링크되었습니다. 다음 헤드라인으로 교체될 경우 각 섹션(시사, 문화, 엔조이라이프, IT) 페이지로 옮겨져 링크됩니다.

소리지니 2007-03-26 17:40:41     답글 삭제
언제였던가 MPEG7 기술을 이용한 피부인식 및 알람 서비스를 제안받아 검토를 해 본 적이 있었죠. 그들이 가져 온 샘플을 가지고 시험을 해 보니 음란물의 경우 90% 이상이 걸러지더이다. 하지만 잠시 기다리게 해 놓고 인터넷에서 제가 직접 콘텐트를 찾아서 재시험을 해 보니 제대로 검색을 하지 못했습니다. 살구색, 짙은 갈색 위주로 색을 채운 콘텐트에서는 왔다갔다 제대로 판별을 할 수 없었죠. 이게 현실일 것이며, 아마도 네이버가 어떤 업체에 현혹되었던것 아닌가 싶네요.

겨우사리 2007-03-30 13:45:59     답글 삭제
제가 보기에도 완벽한 기술은 없는것 같습니다... 그런데 완벽함과 유용함은 다른거 같습니다. 물론 색을 통한 필터링 기술로 음란물을 100% 차단 한다는건 말도 안됩니다. 하지만 색도 하나의 중요한 단서가 될수 있기 때문에 기술적으로 활용해서 모니터링에 도움이 된다면 나쁘게 보이지는 않습니다. 1000 개의 영상을 가리는데 색을 통한 구별로 90%(윗분이 90%쓰인 댓글이 있어서... 빌렸습니다.) 이상 찾아 낼수 있다면 모니터링 하는 사람들의 능률이 상당히 상승하리라 봅니다.

ㅁㅅ 2007-04-05 15:54:16     답글 삭제
네이버의 저 '기술적인 필터링'아이디어를 제공(?)한것이 아마 저일지도 모릅니다. 당시에는 이미지 필터링이 필요한 서비스 기획하다가 그냥 농담삼아 한 소리인데, 누군가가 그걸 기억하고 있었나보군요. 퇴사하길 잘했습니다.;;;

inexpensive replica handbags 2011-04-29 15:26:32     답글 삭제
하지만 잠시 기다리게 해 놓고 인터넷에서 제가 직접 콘텐트를 찾아서 재시험을 해 보니 제대로 검색을 하지 못했습니다. 살구색, 짙은 갈색 위주로 색을 채운 콘텐트에서는 왔다갔다 제대로 판별을 할 수 없었죠. 이게 현실일 것이며, 아마도 네이버가 어떤 업체에 현혹되었던것 아닌가 싶네요.

이름 비밀번호
홈페이지
덧글
비밀글
RSS 피드
전체글한RSS 추가 구글추가
스마트가젯북스타일
Demo Day