2006년 1월 11일 수요일

[웹2.0] 데이터는 차세대의「인텔 인사이드」

[웹2.0] 데이터는 차세대의「인텔 인사이드」

Tim O'Reilly   2006/01/11  
웹2.0
중요한 인터넷 애플리케이션에는 반드시 그것을 지지하는 전문 데이터베이스가 있다. 구글의 웹 크롤, 야후의 디렉토리, 아마존의 제품 데이터베이스, 이베이의 제품 데이터베이스, 맵퀘스트(MapQuest)의 지도 데이터베이스, 냅스터의 분산형 악곡 데이터베이스 등이 그것이다.

지난해 할 베리안은 “SQL이야말로, 차기 HTML이다”라고 말했다. 데이터베이스 관리는 웹 2.0의 핵심 능력이기도 하다. 때문에 이런 애플리케이션은 단지 소프트웨어가 아니고, ‘인포메이션 웨어(infoware)’라고 불리기도 한다. 이 사실은 중요한 물음, 즉 “그 데이터를 소유하고 있는 것은 누구인가”라는 물음을 던진다.

인터넷 시대에는 데이터베이스를 컨트롤하여 시장을 지배해, 막대한 수익을 올린 기업이 적지 않다. 초기에 정부의 위탁을 받고 네트워크 솔루션(Network Solutions, 후에 베리사인이 인수)이 독점한 도메인명 등록 사업은 인터넷에 있어서의 최초의 달러 박스 사업이 됐다.

인터넷 시대에는 비즈니스 우위를 확보하는 것은 훨씬 어려워진다고 했지만, 소프트웨어 API를 지배하는 것으로 중요한 데이터 소스를 지배한다면 우위를 확보하는 것은 그렇게 어렵지 않다. 그 데이터 소스가 작성에 막대한 자금을 필요로 하는 것이거나, 네트워크 효과에 의해 수익을 확대할 수 있는 경우는 더욱 그렇다.

예를 들어, 맵퀘스트, 맵스야후닷컴(maps.yahoo.com), maps.msn.com, maps.google.com등이 생성하는 지도에는 반드시 “지도의 저작권은 NavTeq, TeleAtlas에 귀속됩니다”라고 하는 문장이 덧붙여져 있다.

최근 등장한 위성 화상 서비스의 경우는 “화상의 저작권은 디지털 글로브(Digital Globe)에 귀속됩니다”라고 쓰여져 있다. 이런 기업은 막대한 자금을 투자하고 독자적인 데이터베이스를 구축했다. 내브텍(NavTeq)은 7억 5000만 달러를 들여 주소/경로 정보 데이터베이스를 구축했고, 디지털 글로브는 공공 기관으로부터 공급되는 화상을 보완하기 위해 5억 달러를 들여 위성을 쏘아 올렸다.

내브텍은 친숙한 인텔 인사이드 로고를 모방해, 카 내비게이션 시스템을 탑재한 차에 ‘NavTeq Onboard(내브텍 탑재차)’라는 마크를 붙이고 있다. 실제 이런 애플리케이션에 있어서, 데이터는 인텔 인사이드라고 불릴 만큼 중요성을 가지고 있다. 소프트웨어 인프라의 거의 모든 것을 오픈 소스 소프트웨어나 상품화한 소프트웨어로 조달하고 있는 시스템에 있어서, 데이터는 유일한 소스 컴포넌트이기 때문이다.

현재 격렬한 경쟁이 전개되고 있는 웹 매핑 시장은 애플리케이션의 핵이 되는 데이터를 소유하는 것이 경쟁력을 유지하는데 있어서 얼마나 중요한가를 나타내고 있다. 웹 매핑이라고 하는 카테고리는 1995년에 맵퀘스트가 만들어 낸 것이다. 맵퀘스트는 선구자였지만, 야후, MS, 그리고 최근에는 구글과 같은 신규 참가자가 부각되도록 했다. 이런 기업은 맵퀘스트와 같은 데이터의 사용 허락을 받아 경쟁되는 애플리케이션을 거뜬히 구축할 수 있었다.

그것과 대조적인 것이 아마존이다. 반스앤노블즈닷컴(Barnesandnoble.com) 등의 경쟁 기업과 같이 아마존의 데이터베이스도 원래초는 R.R. 바우커(Bowker)가 제공하는 ISBN(국제표준도서 번호)을 기초로 한 것이었다. 그러나 맵퀘스트와 달리 아마존은 바우커의 데이터에 출판사로부터 제공되는 표지 화상이나 목차, 색인, 샘플 등의 데이터를 추가하는 것으로, 데이터베이스를 철저하게 확장해 갔다.

더 중요한 것은 이런 데이터에 유저가 코멘트를 달 수 있다는 것이다. 10년 지난 지금은 바우커는 아니고 아마존이 서지 정보의 주요한 정보원이 되고 있다. 소비자뿐만 아니라, 학자나 사서도 아마존의 데이터를 참조하고 있다. 또 아마존은 ASIN이라고 불리는 독자적인 식별 번호도 도입했다. ASIN는 서적의 ISBN에 상당하는 것으로, 아마존이 취급하는 서적 이외의 상품을 식별하기 위해 이용되고 있다. 사실 아마존은 유저의 공급하는 데이터를 적극적으로 수중에 넣어, 독자적으로 확장했던 것이다.

이것과 같은 것을 맵퀘스트가 했다면 어떻게 됐을까. 유저가 지도와 경로 정보로 코멘트를 더해 겹겹이 부가가치를 더할 수 있다면 같은 기초 데이터를 손에 넣는 것만으로, 타사가 이 시장에 참가할 수 없었을 것이다.

최근 등장한 구글 맵스는 애플리케이션 벤더와 데이터 공급자의 경쟁을 실시간으로 관찰할 수 있는 장소가 되고 있다. 구글의 경량 프로그래밍 모델을 이용하고, 서드파티가 다양한 부가가치 서비스를 낳고 있지만, 이런 서비스는 구글 맵스와 인터넷의 다양한 데이터 소스를 조합한 매쉬업의 형태를 취하고 있다.

폴 래이드마처의 하우징맵스닷컴(housingmaps.com)은 구글 맵스와 크래이그리스트의 임대 아파트/판매처 정보를 조합한 인터랙티브인 주택 검색 툴이다. 이것은 구글 맵스를 이용한 매쉬업의 걸출한 예라고 할 수 있다.

현재 이런 매쉬업의 대부분은 기업가들의 눈길을 받고 있다. 적어도 일부의 개발자의 사이에서 구글은 벌써 데이터 소스의 자리를 내브텍으로부터 빼앗아 가장 인기가 있는 중개 서비스가 되고 있다. 향후 몇 년간은 데이터 공급자와 애플리케이션 벤더 사이에서는 경쟁이 전개될 것이다. 웹 2.0 애플리케이션을 개발하기 위해서는 특정 데이터가 극히 중요한 역할을 완수하는 것을 양방이 이해하게 되기 때문이다.

코어 데이터를 둘러싼 싸움은 벌써 시작됐다. 이런 데이터의 예로는 위치 정보, 아이덴티티(개인 식별) 정보, 공공 행사의 일정, 제품의 식별 번호, 이름 공간 등이 있다. 작성에 고액의 자금이 필요한 데이터를 소유하고 있는 기업은 그 데이터의 유일한 공급원으로서 인텔 인사이드형의 비즈니스를 실시할 수 있을 것이다. 그렇지 않은 경우는 최초로 주요한 대중의 유저를 확보해, 그 데이터를 시스템 서비스로 전환할 수 있던 기업이 시장을 억제한다.

아이덴티티 정보의 분야에서는 페이팔(PayPal), 아마존의 원클릭(1-click), 많은 유저를 가지는 커뮤니케이션 시스템 등이 네트워크 규모의 ID 데이터베이스를 구축할 때의 라이벌이 될 것이다. 구글은 휴대 전화 번호를 지메일의 어카운트 인증에 이용하는 시도를 시작했다. 이것은 전화 시스템을 적극적으로 채용해, 독자적으로 확장하는 첫 걸음이 될지도 모른다.

한편, Sxip와 같은 신생 기업은 ‘제휴 아이덴티티(federated identity)’의 가능성을 모색하고 있다. Sxip가 목표로 하고 있는 것은 ‘분산형 원클릭’과 같은 구조를 만들어, 웹 2.0형의 아이덴티티 하부조직을 구축하는 것이다. 캘린더의 분야에서는 EVDB가 위키형의 아키텍처를 사용하고, 세계 최대의 정보 공유 캘린더를 구축하려고 하고 있다.

결정적인 성공을 거둔 신생 기업이나 실체는 아직 없지만, 이런 분야의 표준과 솔루션은 특정의 데이터를 인터넷 운영체제의 신뢰할 수 있는 하부조직으로 바꿔 차세대 애플리케이션의 등장을 가능하게 할 것이다.

데이터에 관해서는 프라이버시와 저작권 문제도 언급해 두지 않으면 안 된다. 초기의 웹 애플리케이션은 저작권을 너무 엄밀하게는 행사해 오지 않았다. 예를 들어, 아마존은 사이트에 투고되는 리뷰의 권리가 자사에 귀속한다고 주장하고 있지만, 그 권리를 실제로 행사하지 않고 있다. 그러나 기업은 데이터 관리가 경쟁 우위의 원천이 되는 것을 인식하고 있으므로, 향후는 데이터 관리가 지금보다 어렵게 행해지게 될지도 모른다.

소프트웨어의 융성이 무료 소프트웨어 운동을 가져온 것처럼, 데이터베이스의 융성에 의해서 향후 10년 이내에 프리 데이터 운동이 일어나게 될 것이다. 반동의 조짐은 벌써 나타나고 있다. 위키피디어나 크리에이티브 커먼(Creative Commons) 등의 오픈 데이터 프로젝트, 사이트 표시를 사용자가 할 수 있는 Greasemonkey 등의 소프트웨어 프로젝트가 그 일례다. @


이 기사는 2005년 9월 30일에 O'Reilly Network로 공개된 것이다

2006년 1월 10일 화요일

[펌] 엔토이(entoi)-숫자송

더 자세한 것은 아래에서

http://www.entoi.com/decoration.nhn?m=ssong&type=number 




< 출처 : 엔토이 >

[심층진단 포털을 말한다 - 2] 검색, 세상을 여는 새로운 창

[심층진단 포털을 말한다 - 2] 검색, 세상을 여는 새로운 창
정진호기자 jhjung@inews24.com
2006년 01월 06일
 관련기사
[심층진단 포털을 말한다-3] 포털, 21세기의 새로운 광장
[심층진단 포털을 말한다 - 1] 포털, 'e코리아의 허브'가 되다
검색(檢索). 글자 그대로 검사하고 찾는다는 뜻이다. 최근엔 책 뿐만 아니라 컴퓨터나 인터넷에서 필요한 정보를 찾는다는 의미로 쓰인다.

이 검색 비즈니스가 기업, 더 나아가 21세기 디지털 정보시대에 국가 경쟁력의 지표가 되고 있다. 모든 국민이 양질의 정보를 빠르게 검색, 습득해서 실생활에 활용할 수만 있다면 정보화 사회에서도 앞서 갈 수 있다는 논리다. 검색이 사회의 경쟁력을 한 차원 업그레이드시킬 수 있다는 것이다.

세계에서 가장 우수한 검색엔진이라고 평가받는 구글이 지난해 받은 '찬사와 두려움의 시선'을 놓고 보면 이 말이 현실로 실현될 가능성이 적지 않다.

또한, 구글과 자주 비교되는 국내 검색포털 1위인 네이버가 지난해 보여준 가능성은 우리에게 한국형 토종 검색모델의 세계화에 대한 가능성과 그 고민을 동시에 던져주고 있다.

이제 인터넷 포털 사이트들은 자신들 이름 앞에 '검색'이라는 꼬리표를 마치 훈장만큼이나 자랑스러워한다.

포털은 '검색' 없이는 그 존재의 의미를 상실할 정도가 되어 버렸다. 검색 없는 포털은 상상할 수 없고 포털 없는 검색도 마찬가지다.

그럼, 초창기 인터넷이 등장했을 당시, 단순히 웹 상의 정보를 크로링(Crawling)해서 결과를 보여주는 인프라 서비스 측면에서 접근했던 검색에 그동안 어떤 일이 일어났길래, 검색이 국가 경쟁력을 좌우한다고 하는 걸까. 얼마 전까지만 해도 검색을 버리고 포털만을 외치던 이들 기업들이 검색의 중요성을 새삼 깨닫고 있는 이유는 과연 뭘까.

아마도 전 세계적으로 '검색패권' 전쟁이 일고 있는 이유도 여기에 있을 것이다.

◆ 검색, 세상을 여는 새로운 창

검색을 "세상과 연결해 주는 창"이라고들 한다. 오늘날 웹에서 검색 없이 유용한 정보를 찾기는 사실상 불가능하다.

그럼, 왜 검색이 이렇게 핫 이슈가 되었을까.

검색전문서비스 업체인 첫눈의 신중호 기술이사는 한 마디로 "e세상에서 찾아야 할 것들이 너무 많아졌기 때문"이라고 진단한다.

2002년 "매년 반도체의 집적도는 2배씩 늘어난다"는 일명 '황의 법칙'으로 '무어의 법칙'을 무색케 만들고 있는 황창규 삼성전자 반도체 총괄 사장의 말을 근거로 유추하면 "스토리지 가격이 절반으로 줄어드는 데 걸리는 시간은 2년 이하로 줄어든다.

우리가 검색해야 할 대상은 웹 상의 데이터에 비례하고 이 데이터를 저장할 공간은 날이 갈수록 싸지고 있다. 시간이 갈수록 저절로 검색이 중요해질 수밖에 없다.

실례로, 지난 2002년 미국 전역의 PC에 담겨져 있는 데이터의 양은 5엑사바이트(Exabyte)로 미국 국회 도서관 50만개에 해당하는 정보의 양과 같다는 추정치가 있다.

7천 300만권의 장서를 보유한 세계에서 가장 큰 도서관, 그것도 50만개를 합쳐 놓은 도서관 안에서 내가 원하는 책 한 권을 찾으려면 어떻게 해야 할까. 자칫 발 품을 팔아서는 찾겠다고 나섰다가는 영영 돌아오지 못하는 미아가 되기 십상이다.

이보다는 우수한 검색엔진 앞에 앉아 내가 원하는 정보가 어디에 있는지 한번에 검색해 해 보는 편이 더 낫지 않을까 싶다.

전 세계적으로는 2001년 미 뉴욕 911 테러 사건을 계기로 한 세계 질서의 재편, 미국의 이라크 침공, 유가 상승, 북한 핵문제, 금융자본의 팽창과 아시아 이동, 세계적 양극화 현상 등 어딘지 모르고 질주하는 세상 때문에 세상 만사 정보를 찾아주는 검색이 더욱 빛을 발하고 있다는 해석도 있다.

그러나, 무엇보다 오늘날 검색이 이처럼 뜨거운 이슈로 등장한 배경은 검색이 지난 2∼3년 동안 굶주린 닷컴 기업들의 배를 채워주는 데 경이적인(?) 능력을 보여줬기 때문이다.

검색은 수많은 웹 상의 정보를 원하는 사람들에게 매개해 주고 여기에 광고를 끼워 넣는 온라인 중개업으로 완전히 자리를 잡았다는 사실이다.

이로 인해, 국내 검색광고 시장은 올해 3천 200억원을 시작으로 2006년 5천 450억원, 2007년 7천 530억원 수준으로 매년 증가하고, 2008년 9천억원을 넘어설 전망이다.

지난해 미국의 경우 검색광고가 온라인 광고 시장에서 차지하는 비중이 50%을 돌파하고 중국 역시 작년 1천 900억원 대비 올해 2∼3배 가까이 시장이 성장할 것으로 예상되고 있다. 최근 인터넷 비즈니스에서 가장 큰 시장성장률을 기록하고 있는 것이 바로 검색이다. 시가총액 100조원에 달하는 구글의 성장속도는 마이크로소프트(MS) 등 과거 어떤 IT 기업이 세워놓은 그 것과도 비교할 수조차 없을 정도로 빠르다.

그러나, 95년을 전후해 탄생한 초기 검색이 오늘날 이 같은 수익을 창출해 낼 수 있을 것이라고는 아무도 상상하지 못했다.

그럼, 여기서 잠깐 해외 검색엔진들의 발자취를 한번 들여다보자.

◆ 세계 검색사와 현재적 의미

알타비스타, 익사이트(96년 상장 성공), 구글, 라이코스 등 해외 유명 웹 검색 서비스를 비롯해 개인 홈페이지에서 출발한 야후의 디렉토리 검색 등은 초기엔 웹에 있는 정보를 잘 찾아보고 안내해 주자는 취지에 초점이 맞춰져 있었다.

이후 2∼3년 동안 사용자수는 늘었지만 돈을 벌지는 못했다.

이 과정에서 98년과 99년 사이 알타비스타가 컴팩에 인수되고, 라이코스가 테라(당시 테라는 라이코스를 12조원라는 엄청난 금액에 인수한다)에 인수됐다. 훗날에 호사가들의 이야기지만 당시엔 구글까지도 회사를 매각하기 직전까지 갔을 정도로 검색 업체들은 혹독한 암흑기를 거친다.

이후 이들은 돈을 벌기 위해 메일이나 홈페이지, 메신저 등으로 포털화를 추진하고 심지어 엔터테인먼트 포털이라는 포장으로 부가서비스로 눈을 돌리지만 쇠퇴의 길을 걷는다.



그러나, 고투닷컴(오버추어)의 키워드 검색광고 모델이 도입되고, 구글이 AOL과 ASP 서비스로 손을 잡으면서 검색은 2002년 서서히 성장가도를 달리기 시작한다.

이 무렵 야후와 MS(언더도그)가 검색의 중요성을 인식, 2003년 자체 엔진을 사용하거나 개발에 착수한다. 이때까지 야후는 오픈텍스트, 알타비스트, 구글 등의 검색엔진을 ASP 형태로 사용했다.

이처럼 검색은 단순히 일개 회사가 서비스하는 검색, 그 자체만을 의미하기엔 너무 커버렸다.

검색은 한 국가의 IT 기술발전의 척도이자, 지구 반대편에서 도대체 무슨 일이 일어나고 있으며 내일 아침 우리 식탁에 어떤 영향을 미칠지 미리 깨우쳐 해 주는 세상과 소통하는 창이자 도구이다.

이것이 포털이 검색을 외치는 이유다. 그럼, 대한민국 검색 창은 이런 역할을 얼마나 충실히 하고 있을까.



◆ 한국적 검색이 글로벌 검색

2006년 새해를 맞은 1월 5일 분당구 정자동 벤처타운 12층.

20여명 남짓한 NHN 네이버 지식서비스 유닛 팀원들이 사용자들이 올린 질문과 답변을 관리하느라 손가락 움직임이 빨라진다.

하루동안 지식iN 서비스에 올라오는 사용자들의 질문 건수는 약 3만 5천여건. 이에 대한 답변도 5만 5천건 정도가 붙는다. 또, 답변에 대한 불만 제기는 8천건. 주로 상업성 답변이나 음란성 문제를 제기하는 신고가 많다. 일정기간 질문에 답변이 붙지 않으면 이 질문은 자동으로 사라진다.

◇네이버 지식iN 서비스 현황
 
총 DB건수 3천 715만개
방문자수(UV) 하루 350만 명(로그인 50만명). 월 1천300만(500만명)
하루 발생하는 Q&A 질문 3만5천건+답변 6만5천건 =총 10만건
네트워크 사용량 50Gbps = 초당 영자신문 40만 페이지 전송
답변이 제일 많이 달린 지식 개수 “전화 통화 말고 핸드폰으로 할 수 있는 것, 어떤 것이 있을까요?” 답변 개수 1천67건.
<표1 출처 : NHN>




한국 시장에서 구글 못지 않은 검색 열풍을 일으키고 있는 NHN의 네이버. 지난 2002년 10월 문을 연 지식iN 서비스는 통합검색과 더불어 네이버가 야후를 제치고 대한민국 검색포털 0순위로 올라서는 데 일조를 해오고 있다.

최미정 네이버 지식서비스 유닛 팀장은 "하루 지식iN 서비스 방문자수는 330만명에 달하고 하루 5∼7천명의 회원들이 유입되고 있다"며 "콘텐츠의 퀄리티를 높이기 위해 DB 관리에 역점을 두고 있다"고 설명했다.

네이버는 어떻게 국내에서 구글 못지 않은 검색 바람을 몰고 온 것일까.

첫눈 신중호 이사는 "한국 소비자가 원하는 것을 구글이 아니라 네이버가 주고 있기 때문"이라고 단언한다.

국내 네티즌들의 욕구를 구글이 3% 정도 충족시켜주고 네이버가 70%쯤 주고 있다는 것이다. 현재 국내에서 네이버와 구글의 검색 쿼리 비율은 70대 3이다.

전 세계에서 100억건의 웹 데이터를 보유하고 있는 것으로 알려진 구글(80억건 이후 미발표)이 수억 건의 데이터밖에 갖고 있지 않는 국내 토종 검색 업체와 견주어 겨우 3%정도의 서비스만을 주지 못하고 있다니, 도대체 무슨 소리인가.

이유는 간단하면서도 복잡하다.

순수 검색엔진으로 성장해 온 구글의 경쟁력은 웹, 그 자체에 있다는 게 검색 전문가들의 공통된 의견이다. 웹에 있는 좋은 정보가 많아지면 많아질수록 구글의 경쟁력은 높아진다.

반면, 네이버 등 국내 토종 업체들의 경우 웹보다는 사용자들이 생산하는 정보(DB)에 경쟁력이 있다. 네이버의 지식iN은 사용자 경험을 검색데이터 생산과 연계해 놓은 UCC(사용자콘텐츠생산) 플랫폼의 전형이다. 쟝르는 약간 다르지만 다음의 카페나 네이트닷컴의 싸이월드도 역시 마찬가지다.

역사적으로 초창기 엄청난 양의 영문 웹 문서를 찾아야 했던 해외 검색업체와는 달리 토종 검색엔진은 찾아야할 정보(DB) 축적이 더 시급한 과제였다는 논리이다. 97년 당시 국내 웹사이트 숫자는 5천여개에 불과했다. 이 당시 국내 시장에 진출한 야후가 4개월만에 1위로 올라선 이유이기도 하다. 기술 경쟁을 벌이기에 경기장이 제 구실을 하지 못했다는 것이다.

따라서, 네이버는 Q&A 방식의 지식iN과 블로그 등 사용자 경험을 빠른 시간 안에 축적하기 위해 주력해왔고 아울러 여타 업체와의 제휴를 통해 양질의 전문DB 수집에 몰입, 이를 발 빠르게 '검색'과 연계한다.

구글과 네이버의 차이점 또 하나.

최미정 팀장은 구글과 네이버가 다른 점에 대해 한마디로 "성의가 있다와 없다의 차이"라고 잘라 말한다.

식탁 위에서 서양 사람들은 포크와 칼이라는 합리성을 추구하지만 동양 사람은 숟가락과 젓가락이라는 정성과 예의범절을 따진다. 엄청난 정보를 기술적인 검색을 통한 텍스트 위주로 보여주는 구글과 소량의 정보지만 가공하고 정제(마이닝)해서 보여주는 네이버의 서비스 중 국내 소비자들이 후자를 선호하고 있는 것이다.

그러나, 구글과 네이버의 다른 점만 있는 것은 아니다. 공통점도 있다.

구글과 네이버의 공통점은 먹고살기 힘든 검색 시장 침체기에 검색에 계속 투자하고 집중해 왔다는 사실이다.

구글은 경쟁사들이 98∼99년 매각을 통해 포털로 옷을 갈아 있는 동안 검색만을 고집해 결국 승리했다.

네이버도 뉴스 등 콘텐츠 검색연동, 통합검색, 지식iN, 블로그 검색 등 남 보다 한발 앞선 혁신 서비스 등을 잇따라 내놓는다.(네이버도 2000년 한게임과 합병을 결행하지만 당시 조직운영이 현명한 결정이라고 증명된 셈이다.)

두 회사 모두 어려운 시기에도 끊임없이 검색 서비스를 업그레이드하고 혁신 서비스를 붙여온 것이 오늘날 성공의 밑거름이 됐다.

시장 호황기에는 누구나 잘 하지만 불황기 때 어떤 노력을 취하느냐가 그 기업의 미래를 결정해 준다는 말을 증명해 주고 있는 셈이다.

두 회사의 또 하나의 공통점은 아킬레스건을 갖고 있다는 점이다.

구글은 그 검색엔진의 확장성과 우수성으로 인해 무차별적인 개인 프라이버시를 침해한다는 비난을 받고 있다. 네이버는 순수한 검색결과를 보여주기보다는 사용자나 다른 저작권자가 생산한 정보를 가공해 보여주고 돈을 번다는 공격을 받고 있다.

◆CDMA와 같은 한국형 검색패러다임 형성이 필요하다

구글은 현 웹상의 정보나 플랫폼, 검색기술 및 광고 모두 분야에서 "가야할 길의 5% 도 못 왔다"고 말한다.

네이버의 지식iN과 블로그 검색 같은 UCC 기반의 토종 검색전략이 세계에서 통할 수 있을까.

이 문제에 대한 답을 현 시점에서 '그렇다', '아니다'라고 잘라 말하기는 매우 어렵다. 그렇게 만들기 위해 지금부터라도 철저한 전략이 필요하다는 대답이 더 어울린 것 같다.

"과연 중국과 일본의 사용자들이 네이버에게 자신들이 생산한 콘텐츠를 국내 사용자들처럼 그렇게 헌신적으로 줄 것인가?" 라는 질문에 대해서 업계 전문가들 사이에서 "아닐 것"이라는 답이 많다. 웹에 경쟁력이 있는 구글은 그대로 들고 나갈 수 있지만 네이버는 어렵다는 분석이 주류다.

그러나, 현지인의 입맛에 맞는 콘텐츠를 먼저 주고 이를 기반으로 커뮤니티나 검색 등으로 연계, 변형해 발전해 나간다면..."아마, 시간은 걸려도..."정도로 고개를 갸우뚱거린다.

CDMA 예를 들어보자.

10년 전 우여곡절 끝에 국내에서 상용화를 시작한 CDMA(코드분할접속방식) 이동통신 표준은 당시 우리나라가 최초였다. 당시 CDMA 기술이 GSM/TDMA(시분할접속방식)이 지배하고 있던 세계에서 통할 수 있을까라는 우려가 지배적이었다. 그러나, 휴대폰 사업 포기 직전까지 갔던 삼성전자 애니콜은 이 CDMA 표준선택 덕분에 국내 시장에서 모토로라를 제압하는 데 성공한다.

이후 유럽 등 세계 시장으로 나아갈 수 있는 기초 체력을 내수를 통해 쌓는다. 이때 삼성전자가 선택한 전략이 고가 브랜드 전략과 GSM/CDMA 양수겸장이었다. 내수 및 미국 등지의 소량의 CDMA 시장과 유럽의 GSM 시장을 동시에 공략한다. 세계 시장에서 통할 수 있는 GSM표준 단말기 개발에 주력했다. 이후 CDMA 시장이 확대되고 GSM 기술력도 발전하면서 시너지를 내기 시작했다. 당시 4억 4천만 달러에 불과하던 단말기 수출은 지난해 246억달러를 기록했다.

토종 검색업체들도 세계 시장 진출에 있어 지금 가지고 있는 독창적인 장점을 더 발전시키고 활용하는 지혜를 발휘해야 할 때라는 것이다.

최근 구글과 야후가 보여준 행보는 우리 검색업체들에게 타산지석이 될 수 있다.

구글과 야후가 이미 한국형 토종 업체들의 지식검색 서비스를 가져다 글로벌화 시키고 있다는 것은 눈 여겨 볼 문제다.

작년 12월 8일 미국 야후는 네티즌들이 묻고 답하는 지식검색 서비스 '야후 앤서스(Yahoo! Answers)' 베타 버전을 공개했다. '야후 앤서스'는 네티즌들이 질문하면 이에 대해 다른 네티즌들이 답을 달아주어 검색만으로는 찾을 수 없는 복잡한 문제에 대한 답변을 얻을 수 있도록 서비스로 국내에서 선보이고 있는 지식검색과 유사하다.

야후의 지식검색 따라하기는 지난 2003년 9월로 거슬러 올라간다. 당시, 미국, 중국, 일본, 싱가포르, 영국, 독일, 브라질, 호주 등의 서비스 기획자와 엔지니어들이 야후코리아에 모였다. 이 회의에서 가장 적극적인 관심을 표방한 호주의 경우 컨퍼런스가 끝난 후 10일 동안에 지식검색 프로그램 개발에 대한 모든 소스를 엔지니어가 습득해 갔으며 해외 진출을 위해 엔지니어링 파트에서 진행을 도와 일본과 대만에서 지식 검색을 오픈할 수 있도록 지원했다.

현재 대만은 '知識+(지식플러스)'라는 명칭으로 정식 서비스하고 있으며 야후!일본은 ‘지혜봉투’(http://knowledge.yahoo.co.jp) 라는 명칭으로 지난 해 4월 베타에 이어 10월부터 정식 서비스하고 있다.

구글 역시, 구글 앤서스로 이 시장에 관심을 보이기 시작했다.

이러한 현상은 우리 국내 업체들에게 위기이자 기회다.

한국 검색시장은 인터넷 인프라나 사용자들의 교육 수준에 비춰볼 때 앞선 선진 시장이다.

이를 바당으로 한국형 검색패러다임을 만들어 가는 전략이 필요하다는 지적도 높다.

예를 들어, 블로그나 게시판 검색 등 해외 검색업체들이 낮설고 소홀히 하는 분야를 강화한다거나, 이미 웹2.0를 지나 웹2.5로 진화해 있는 국내 웹 기술을 기반으로 검색을 연계, 발전시키면 글로벌에서도 승산이 있다는 지적이다.

검색은 소위 비인칭, 무자산 서비스이라고 한다. 게임이나 커뮤니티와는 달리 개인 혼자 쓰고 서비스를 전환하거나 옮기는 데 돈이 들지 않는다.

국내 사용자 1인당 사용하는 중복 검색사이트는 3.5개 정도다.

구글이 최고라고 구글만 쓰는 사용자는 없다. 사용자에게 좋은 정보(DB)를 주고 사람을 향하는 곳이 바로 21세기 검색의 지존이다.




[국내 검색 변천사] "검색전쟁은 끝나지 않았다"

검색은 곧 인터넷의 역사라고 해도 과언이 아니다.

국내 검색사도 해외 검색과 비슷한 출발과 사이클을 갖고 있다.

95년을 전후해 대학원생들의 심심풀이 취미 생활로 탄생한 코시크, 까치네, 미스다찾니 등 검색 프로그램은 이후 한글과컴퓨터 계열인 심마니, KT 계열의 정보탐정 등 상업용 검색서비스 등으로 발전하지만 야후의 등장으로 모두 대중화에 실패했다.

1997년 9월 야후가 한국에 처음 발을 들여놓으면서 시장을 평정한다. 당시, 국내 상황은 무료 웹메일 서비스가 거의 전부였다 해도 과언이 아니었다. 이러한, 상황에서 야후는 해외에서의 웹검색 디렉토리 서비스를 무기로 국내에서 본격적인 인터넷 검색 서비스의 대중화를 연다.

98년 10월에는 서비스 개시 1년 만에 300만 페이지뷰 돌파하였으며 99년 9월에는 국내 최초 하루 2천만 페이지뷰를 돌파하는 경이적인 기록을 세운다. 야후코리아는 단, 4개월만에 심마니를 제치고 1위 자리에 올라선다.

당시 국내 웹 사이트는 5천여개 정도. 사실상 진정한 승자를 겨루기에는 시장이 뒷받침을 해 주지 못했다는 표현이 더 옳다는 게 검색 전문가들의 평가이다.

이후 토종 검색엔진인 네이버와 엠파스의 반격이 시작된다.

당시 엠파스는 '자연어검색'이라는 기술을 선보이면서 성장을 구가한다.

야후-네이버-엠파스의 3강 경쟁은 결국 지식검색 및 통합검색을 고수한 네이버의 승리로 끝나게 되고 지금까지 이어지고 있다.

그러나, 검색시장이 이제 초기 성숙기를 거치고 있는 만큼 현재의 시장구도가 이대로 지속되리라고 믿는 사람은 아무도 없다.

엠파스가 비록 검색시장 성장기에 게임, 메일 등 포털화를 추진하면서 스스로 화를 자초했지만 최근 열린검색을 통해 초심으로 돌아와 의욕적을 보이고 있다.

다음커뮤니케이션도 기존 지식검색에 자사의 강점인 600만 카페와 연동, 전문가들의 노하우를 결합한 '신지식 프로젝트'를 오픈해서 좋은 반응을 얻고 있다. 이밖에 첫눈 등 미래 검색시장에 희망을 품고 등장한 신생 업체들이 많아지고 있다.

다시 말해, 검색전쟁은 아직 끝나지 않았다는 것이다.








네이버-엠파스, 사용자 외면한 대립은 "그만"

지난해 6월 1일 엠파스의 열린검색 서비스로 촉발된 네이버와 엠파스간의 경쟁은 사용자 정보(DB)에 대한 권리를 누가 갖고 있느냐는 문제로까지 확산되면 국내 검색업계의 신경전으로까지 이어졌다.

물론, 검색시장의 발전을 위한 건전한 경쟁으로 볼 수도 있지만 두 회사의 대립은 아직도 해결의 기미를 보이지 못하고 있다.

이 문제에 대해 네이버 측은 "네티즌이 생산한 콘텐츠는 당연히 네티즌에게 있으며 특히, 지식iN 서비스와 같은 Q&A 방식의 콘텐츠는 질문자와 답변자 공동의 저작물"이라고 "다만, 네이버는 DB 제작자"라고 네티즌의 권리를 존중한다는 의사를 표시했다.

다만, 이 저작물에 대한 관리와 유지를 위해 네이버가 기울이는 노력이 적지 않은 만큼 따라서, 다른 회사가 가져가 상업적으로 이용하는 것에 반대할 뿐 공공의 목적으로 사용되는 것은 문제가 없다는 입장을 취했다. 네이버 측은 "지식iN 콘텐츠는 RSS 피팅이나 링크를 걸거나 사용자 옵션을 통해 공유가 가능하도록 되어 있다"며 "의도적으로 막아놓은 것은 없다"라고 말한다.

반면 엠파스는 "네티즌 소유의 콘텐츠를 네이버에서만 보라는 것은 이해할 수 없는 일"이라며 "열린검색을 통한 DB 공유는 검색 본연의 임무이자 의무"라고 반발하고 있다.

그러나, 두 회사의 다툼 속에는 사용자를 볼모로 회사의 이익만을 추구하고 있다는 질책이 쏟아지고 있다.

업계 검색 전문가는 "업체들이 자사의 이익만을 위해 사용자들이 순수한 의도로 올린 정보를 갖고 전략적으로 이용하는 것 같아 답답하다"며 "사용자는 팽겨쳐 두고 자사 관점에서 해석하는 경향이 있다. 공개할 콘텐츠는 공개한다면 타사 DB를 끝까지 가져가겠다는 오버액션도 없어질 것"이라고 충고했다.



스스로 진화하는「인터넷 검색 기술」

스스로 진화하는「인터넷 검색 기술」
데이터베이스, 자연어 처리, 인공 지능 기반 기술 등장…인공 지능 기반 기술 다시 부각
김효정 기자 ( ZDNet Korea )   2006/01/10
검색엔진
NHN
엠파스
첫눈
최근 사용자의 마음을 사로잡기 위해 인터넷 포털에서는 다양한 신규 검색 서비스들을 선보이고 있다. 검색 서비스의 궁극적인 목표는 시류에 맞는 질 좋은 정보를 찾아 주는 것. 검색 기술의 발전은 이 같은 검색 서비스의 이상향을 완성해 줄 것이다.

초기 웹 검색에서부터 지식 검색, 데스트톱 검색, 그리고 오늘날의 멀티미디어 검색까지 검색 서비스에 따라 검색 기술은 꾸준히 발전해 왔다. 이러한 검색엔진에서 제공하는 검색 서비스에는 어떤 기술들이 적용될까?

검색엔진의 기반 기술은 ‘응용 성격’이 강하며 데이터베이스, 자연어 처리, 인공 지능 등 크게 3가지 관점에서 구분해 볼 수 있다.

3가지 검색 기반 기술 - 데이터베이스, 자연어 처리, 인공 지능
첫번째는 데이터베이스에 기반을 둔 검색엔진 기술이다. 이는 DBMS에 적용되는 기술로 초기 검색엔진 기술은 비정형화된 데이터(텍스트)를 DBMS에서 색인 및 추출하도록 한 것에서 시작된다. 즉, 초창기 검색엔진은 DBMS와 크게 다를 게 없으며, 이 당시 국내 대표적인 검색엔진인 까치네는 물론, 이준호 교수가 개발한 네이버 역시 데이터베이스를 기반 기술로 하는 검색엔진이다.

이러한 국내 검색엔진들은 DBMS에서 전문 검색(Full Text Retrieval) 문제를 해결하기 위해 '엔그램(N-GRAM)'이라는 색인 방식을 사용했다. 국내의 경우 초기에는 검색할 문서수가 많지 않아 두 글자를 패턴으로 하는 바이그램(Bi-GRAM)을 주로 사용했다. 예를 들어 검색어로 ‘인천국제공항’을 입력하면 ‘인천’, ‘천국’, ‘국제’, ‘제공’, ‘공항’ 등 두 글자로 된 모든 문장을 찾는 방식이다.

엔그램 방식이 처음 나왔을 때는 그동안 한국어 검색에서 문제가 됐던 조사나 띄어쓰기 문제를 해결해 주는 강력한 기능을 발휘했으나, 문서의 양이 많아지면서 불필요하게 많은 검색 결과를 보여준다는 단점이 드러났다. 지금 생각해 보면 원시적이며 무식한 방식이지만, 검색 재현율(recall)이 좋다는 장점은 무시할 수 없다.

두번째는 자연어 처리에 기반을 둔 기술이다. 여기서는 형태소 분석기를 사용함으로써 데이터베이스에 기반 기술을 둔 검색엔진이 갖는 과도한 검색의 문제를 해결할 수 있었다. 다시 ‘인천국제공항’의 예를 들면, ‘인천’, ‘국제’, ‘공항’이란 단어만 있으면 관련 정보를 찾아주게 된 것이다. 기존의 재현율보다는 정확율(precision)에 초점을 맞춘 것이다.

마지막은 인공 지능에 기반을 둔 기술이다. 현재까지 검색엔진 기술 분야의 가장 최근 기술로 ‘적합도 랭킹’을 내세웠다. 검색 결과 10만 건이 넘는 문서가 나왔어도 실제로 사용자들이 보는 문서는 10~20건 정도에 그친다. 때문에 사용자들에게 적합한 문서를 찾아주는 데 주력했고, 인공 지능 기술을 이용해 도큐먼트와 사용자 쿼리 간 유사도와 적합도를 계산해서 더욱 정확한 결과를 상위에 랭크시켜주는 기술이다.

서비스를 제외한 검색 기술만을 가지고 검색 기능을 따지려면 이 3가지 기술이 잘 조화돼 있는지를 보면 된다. 재현율과 정확율, 그리고 적합성은 오늘날 검색엔진들이 갖춰야 할 기본 조건이다.

데이터베이스, 자연어 처리는 살고 인공 지능은 죽다
국내 검색의 역사는 지난 1995년 전후로 태동기를 맞는다. 초기 웹 검색은 코시크, 까치네, 미스다찾니 등 대학파와 심마니(한컴), 정보탐정(KT) 등 기업형으로 출발했다. 앞서 언급했듯이 초기의 웹 검색은 엔그램 방식과 웹로봇을 통해 100만 건 이하의 소량의 문서를 바탕으로 이루어졌다.

1997년 야후의 국내 진출로 디렉토리 검색이 등장했다. 이 때 국내의 사이트 수는 5천여 개였으며, 디렉토리 검색은 초기 문서수가 적고 검색 기술력이 빈약했을 때 사람의 노동력을 써서 문서와 키워드를 카테고리별로 찾기 위한 것이었다. 자동 인덱스 방식이 아닌 수동 검색 방식이기 때문에 기술적으로 뛰어난 것은 아니다. 초기 국내 검색 시장에서는 데이터베이스 기반 기술인 엔그램 방식과 수동 방식을 모두 사용했다.

이어 라이코스와 다음이 약진하면서 포털화가 시작됐으며, 1998년에는 야후와 토종 검색 엔진 네이버가 양대 산맥을 이루었다. 1998년 말 후발 업체인 엠파스가 ‘자연어 검색’을 표방하면서 신선한 충격을 일으켰다. 기존 단어만으로 문서를 찾는 것이 아니라 문장을 가지고도 정보를 찾을 수 있게 됐는데, 문장으로 검색을 하려면 형태소 분석이 필요한 자연어 처리 기반 기술이 필요했다. 이 때 그 유명한 ‘야후에서 못 찾으면 엠파스…’라는 광고문구가 등장했다.

2000년 이후, 국내 검색 시장은 성장기를 맞는다. 뉴스 연동, 통합 검색과 더불어 네이버의 지식 검색 서비스 ‘지식인’이 등장하며 검색의 진화가 이루어졌다. 네이버 성장의 한 축을 담당한 지식 검색은 인공 지능(AI) 기반 기술에서 잉태됐다. 그렇지만 엄밀히 말해 AI 기술이 적용되지는 못했다. 당시로서는 그 정도의 기술력을 확보하기가 어려웠고, 네이버는 인공 지능 기술을 버리고 과감하게 그 개념만을 도입한 지식인 서비스를 택했다(비슷한 지식 검색으로 디비딕이 먼저 나왔으나 여기서는 생략하겠다).

인공 지능의 개념만을 도입해서 시스템이 아닌 사용자가 답변을 달아주는 방식의 지식인 서비스는 사용자의 욕구를 충족시켜 줬으며, 네이버의 선택은 성공했다. 그렇지만 지식인의 대성공은 결과적으로 국내 검색 시장에서 AI 기반 기술을 퇴화시키는 데에도 한 몫을 했다.

또한 네이버 고성장의 다른 한 축, 통합 검색은 데이터베이스의 확장으로 인해 사용자 서비스 측면 강화 차원에서 각종 서비스들을 한눈에 볼 수 있도록 만든 것이다. 이는 웹로봇의 발달과 더불어 DB 확장이 있었기에 가능한 서비스다.

고성장 시기의 검색 시장, 기술 발전은 글쎄...
2002년 이후 국내 검색 시장은 매출이 급격히 증가하면서 네이버와 다음이 견실한 캐시카우(Cash-cow)를 형성하기 시작한다. 확실한 선두 그룹이 정해지기 시작하면서 업체 간 경쟁도 심화됐다. 이미 시장은 성숙했고 검색 서비스 특성상 스위칭 코스트(전환 비용)가 발생하지 않으므로, 서비스만 뛰어나다면 언제든지 선두 자리에 설 수 있기 때문이다.

이 틈을 뚫고 지난해 등장한 엠파스의 열린 검색은 업체 간 경쟁의 단면을 보여주는 일례다. 타 검색엔진의 블로그나 게시판 문서를 가져와서 보여주는 것에 대해서 업계에서는 도덕적으로 부당하다는 입장과 공정한 서비스의 한 형태라는 입장이 공존한다.

논란은 지금도 계속되고 있지만 검색 기술 측면에서는 반길 만한 일이다. 엠파스의 열린 검색은 타 검색엔진의 데이터를 웹크롤링(웹로봇으로 문서를 찾아오는 것)해서, 이 정보를 자사의 검색 기술로 색인해 사용자에게 보여주고 있다. 서비스 측면이 아닌 검색 기술로 승부를 건 것이다.

코난테크놀로지의 한 관계자는 “엠파스의 열린 검색은 흔히들 말하는 메타 검색과 다른 면이 있다. 그 기준은 자체 색인 DB 존재 여부에 따라 색인 DB가 존재하면 열린 검색이고, 그렇지 않으면 메타 검색이라고 본다”며 “엠파스가 타사의 DB를 자체 검색엔진에서 색인했기 때문에 문제가 될 수는 있으나, 쟁점의 중앙에 기술 이슈가 등장한 것은 나쁘지 않다”고 말했다.

검색 기술은 ‘스스로 진화한다’
지난해부터는 멀티미디어와 데스크톱 검색 등의 서비스가 등장해 올해는 업체 간 더욱 치열한 서비스 경쟁이 예상된다.

최근 PC 사양이 좋아지고 각 개인의 컴퓨터에 메일, 오피스 프로그램 등 각종 자료가 넘쳐나자 문서 필터링을 위해 데스크톱 검색 서비스가 등장한 것이다. 데스크톱 검색 기술의 핵심은 ‘경량화’ 기술로, 무거운 검색엔진을 자원 활용에 대한 튜닝을 통해 PC에서 돌아가게끔 하는 기술이 적용됐다. 이 기술은 사용자들이 PC상에서 작업하는 데 불편함이 없도록 하기 위해 리소스에 지장을 초래해서는 안 되며, 이를 만족시키기 위해 아웃룩 등의 프로그램과의 연동 같은 다양한 기술이 추가 개발되고 있다. 또한 추후 데스크톱이 KMS(지식관리시스템)와도 연동될 가능성을 열어주고 있다.

멀티미디어 검색은 메타데이터 검색과 내용 기반 검색의 두 가지로 나뉜다. 전자는 디스크립션 검색으로 동영상이나 이미지에 표시된 텍스트 검색 수준이고, 후자는 실제로 이미지를 분석해 그 내용으로 색인을 하는 기술이다. 물론 후자가 진정한 멀티미디어 검색이라고 할 수 있지만, 현재 포털에서 제공하는 멀티미디어 검색은 아직 전자에 가깝다. 오디오는 음파를 분석하고, 이미지는 이미지 디스크립터를 검색하는 ‘특징 추출’ 기술을 사용하는데 이는 자연어 처리 기반 기술이라 할 수 있다.

최근 첫눈이 자체 개발한 검색 기술 ‘스노우랭크’는 인공 지능 기반 기술의 적합도 랭킹에 가까운 기술이다. ‘중복된 정보가 가치가 있다’는 명제 하에서 빈도수가 잦은 정보를 상위에 랭크해 주고 있다. 얼마나 많은 사람이 봤는지 클릭 수에 따른 엠파스의 유저 랭크나 문서 고유의 가중치를 두는 구글의 방식도 이와 유사하다.

이러한 면에서 인공 지능 기반 기술에서 강조된 랭킹 기술이 다시 부각될 것으로 보인다. 지금까지 형성된 엄청난 분량의 이미지, 문서, 기사 등의 DB를 시스템적으로 재정렬하고 가장 적합한 검색 결과를 상위에 랭크시켜야 하기 때문이다.

검색 서비스와 기술은 시대의 변화에 따라서 스스로 진화한다. 결국은 가장 편리하고 효율적인 서비스를 제공하는 검색엔진 기술과 서비스가 살아남을 것이다. @

[웹2.0] 플랫폼으로서의 웹

[웹2.0] 플랫폼으로서의 웹

Tim O'Reilly   2006/01/10  
닷컴의 붕괴는 웹2.0 탄생의 필연?
2001년의 닷 컴 버블의 붕괴는 웹에 있어서 하나의 전환점이 되었다.「웹은 과대하게 선전되고 있었다」라고 많은 사람이 결론을 내렸지만 버블과 그 후의 도태는 모든 기술 혁명에 공통되는 특징인 것처럼 생각된다. 일반적으로 도태는 신생 기술이 지금까지의 주역을 대신할 단계에 도달한 것을 나타내 보이고 있다. 전자는 붐을 쫓아갔지만 진짜 실력을 갖춘 기업이 성공을 거둔다. 이들이 서로 분리되는 것도 이해가 될 것이다.

「웹2.0」이라는 개념은 오라일리(O'Reilly)와 미디어라이브 인터내셔널(MediaLive International)에 의한 브레인 스토밍(brainstorming)에서 부터 탄생했다. 웹의 개척자이며, 현재는 오라일리의 부사장을 맡고 있는 데일 도어티(Dale Dougherty)는 웹은 「붕괴」되기는커녕 전보다 중요한 존재가 되었다고 한다. 활발한 웹사이트 들이 놀라운 정도로 착실하게 태어나고 있다고 지적했다. 또 버블 붕괴에서 살아남은 기업에는 닷컴의 붕괴에 의해서 웹은 웹2.0과 같은 확실히 어떤 전환점을 맞이해야 할 것이 아닌가 하는 공통점이 있어 보인다. 이러한 생각을 기초로 우리는 웹2.0 컨퍼런스의 개최를 결의했다.

불과 1년 반 사이에 웹2.0은 완전히 뿌리를 내렸다. 이 말을 구글로 검색하면 950만 건 이상에 달한다. 그러나 웹2.0이 의미하는 것에 대해서 아직껏 다수의 상이한 의견 차이가 있다. 이것을 말뿐인 무의미한 마케팅 용어라는 사람도 있고, 새로운 사회의 통념으로 보는 사람도 있다.

이 논문의 목적은 웹2.0이 무엇을 의미하고 있는지를 명확하게 하는 것이다.

최초의 브레인 스토밍(brainstorming)에서는 구체적인 예를 들어 웹2.0의 개념을 잡았다.

웹1.0 웹2.0
DoubleClick Google Adsense
Ofoto Flickr
Akamai BitTorrent
Mp3.com Napster
Britannica Online Wikipedia
Personal websites blogging
evite Upcorming.org and EVDB
Domain name speculation Search engine optimization
Page views Cost per click
Screen scraping Web services
publishing participation
Content management systems wikis
Directories(taxonomy) Tagging("folksonomy")
stickiness syndication
<표 1> 웹1.0과 웹2.0의 비교

이 그 밖에도 다양한 예가 있다. 그러면 우리는 무엇을 가지고, 어느A 애플리케이션 또는 어프로치가 「웹1.0」이나 「웹2.0」에 속한다고 판단한 것일까(이 점을 분명히 하는 것이 우선시 되고 있다. 웹2.0이라는 문화의 전달자는 완전히 퍼져서 이 말의 진정한 의미를 이해하지 않고, 단순한 마케팅 용어로서 남용하는 기업이 증가하고 있기 때문이다. 게다가 이러한 유행어를 좋아하는 신생 기업의 대부분이 웹 2.0이라고는 도저히 부를 수 없다. 우리가 웹2.0의 예로서 이름을 든 앱스터(Napster)나 비트토런트(BitTorrent)는 엄밀하게는 웹 애플리케이션 조차 아니다).

우리는 웹1. 0의 성공 사례나 새롭게 등장한 흥미로운 애플리케이션에 주목하는 것으로 웹 2.0의 원칙을 이끌어내기로 했다.

웹2.0의 원칙
많은 중요한 개념처럼 웹2.0도 명확한 윤곽은 없고 그 외의 것을 끌어당기는 코어로서 존재한다. 그림 1에 웹2.0을 나타냈다. 이것은 웹2.0의 원칙과 실제의 세트로 정확히 태양계와 같이 이러한 원칙의 일부 또는 모든 것을 입증하고 있는 사이트가 다양한 거리로 코어와 결합되어 있다는 것을 알 수 있다.

<그림 1> 웹2.0의 meme map

그림 1은 오라일리 미디어의 「FOO Camp」컨퍼런스에서 진행되었던 브레인 스토밍(brainstorming) 세션에서 작성된 웹2.0의 「Meme 맵」이다. 스케치 단계의 것이지만 웹2.0의 코어로부터 다양한 아이디어가 태어나고 있는 것을 알 수 있다.

2004년 10월에 개최된 제1회 웹2.0 컨퍼런스의 개회 연설에서 존 베텔레(John Battelle)와 나는 이러한 원칙의 일부를 소개했다. 제1 원칙은 「플랫폼으로서의 웹」이었다. 그러나 이것은 웹1.0의 총아로 MS와의 격투의 끝에 진 냅스터가 내건 슬로건이기도 했다. 또 첫머리에서 웹1.0의 예로서 이름을 든 더블클릭(DoubleClick)과 아카마이(Akamai)도 웹을 플랫폼으로서 다룬 선구적인 기업이었다. 광고 서비스를 「웹 서비스」라고 생각하는 사람이 많지 않을지도 모르지만 광고 서비스는 광범위하게 배치된 첫 웹 서비스-최근의 용어를 사용하면 「매쉬 업」이었다. 모든 배너 광고는 2개의 웹 사이트가 밀접하게 협력해 통합된 페이지를 유저의 컴퓨터에 표시하는 형태로 나타난다.

아카마이도 네트워크를 플랫폼으로서 다루는 기업 중의 하나다. 아카마이는 스택의 한층 더 깊은 부분에서, 대역폭의 혼잡을 해소하기 위한 캐싱과 콘텐츠 전달 네트워크를 구축하고 있다.

그럼에도 불구하고 이 2개의 선구적 기업과 웹2.0 기업의 사이에는 명확한 차이가 있다. 후의 참가자들은 새로운 플랫폼을 보다 깊게 이해하는 것으로 같은 문제에 대해서 보다 효과적인 솔루션을 제공했다. 더블클릭과 아카마이는 웹2.0의 선구자였지만 웹2.0의 디자인 패턴을 도입하면 더 많은 가능성을 실현할 수 있다.

여기에서는 세 개의 사례를 파헤쳐 웹1.0과 웹2.0의 본질적인 차이를 알아보자

넷스케이프 vs 구글
넷스케이프가 웹1.0의 기수였다고 하면 구를이 웹2.0의 기수라는 것에 이의가 없을 것이다. 양 회사의 IPO는 각각의 시대를 상징하는 사건이기도 했다. 우선 양 회사와 그 포지션의 차이를 비교해 가자.

넷스케이프는 낡은 소프트웨어 패러다임(paradigm)의 관점으로부터, 「플랫폼으로서의 웹」을 구상했다. 넷스케이프의 가장 중요한 제품은 웹 브라우저와 데스크톱 애플리케이션이었다. 넷스케이프는 브라우저 시장에서의 우위를 이용해 고액의 서버 제품 시장을 확립하려고 했다. 넷스케이프는 콘텐츠와 애플리케이션을 브라우저에 표시하기 위한 표준을 지배하고 있었으므로 이론적으로는 MS가 PC시장에서 향수하고 있는 것과 같은 시장 지배력을 손에 넣을 수 있을 것이었다. 「말 없이 달리는 탈 것」이라고 하는 표현이, 마차를 즐겨 온 사람들에게 자동차를 친밀한 것과 느끼게 한 것처럼, 넷스케이프는 데스크톱을 대신하는 것으로 「웹 톱」을 추진했다. 이 웹 톱에 넷스케이프 서버를 구입한 기업이 전달하는 업데이트하는 애플릿을 싣는다는 것이 넷스케이프의 계획이었다.

그러나 웹 브라우저와 웹 서버는 상품화해, 가치는 「스택의 상류」, 즉 웹 플랫폼상에서 제공되는 서비스로 옮겨 버렸다.

넷스케이프와 대조적으로 구글은 네이티브의 웹 애플리케이션으로 탄생했다. 구글은 소프트웨어를 판매한 것도 패키지 소프트웨어를 개발한 적도 없다. 구글은 서비스를 제공해 고객은 직접적 또는 간접적으로 서비스에 대한 사용료를 지불한다. 구글에는 과거의 소프트웨어 업계를 상징하는 것은 아무것도 없다. 소프트웨어의 발표 계획은 없고 개선은 계속적으로 행해진다. 라이센스 공여도 없으며, 판매도 없고, 사용량이 있을 뿐이다. 고객의 환경에 맞추어 소프트웨어를 다양한 플랫폼에 이식할 필요도 없다. 대량의 상품 PC를 사용하고, 극히 확장성이 높은 시스템을 구축해 자가의 커스텀 애플리케이션과 유틸리티를 오픈 소스 OS 위에서 실행하는 것만으로 좋다.

구글에 필요한 것은 넷스케이프가 전혀 필요로 하지 않았던 능력이다. 그것은 데이터베이스 관리다. 구글은 단순한 소프트웨어 툴이 모아진 것이 아니라 매우 특수한 데이터베이스다. 데이터가 없으면 툴은 도움이 되지 않지만, 소프트웨어가 없으면, 데이터를 관리할 수 없다. 웹1.0시대에 귀중한 보물 된 소프트웨어 라이센스나 API 관리 방법은 구글의 비즈니스 모델에게는 들어맞지 않는다. 구글은 소프트웨어를 배포할 필요는 없고, 그것이 적절히 기능하도록 하면 좋기 때문이다. 실제, 데이터를 수집해, 관리하는 능력이 없으면, 이 소프트웨어는 어떤 도움도 되지 않는다. 소프트웨어의 가치는 그 소프트웨어가 관리하는 데이터의 규모와 다이너미즘에 비례한다.

구글의 서비스는 대량의 인터넷 서버로 구성된 시스템을 통해 제공되지만, 구글의 서비스는 서버는 아니다. 유저는 브라우저를 통해 구글의 서비스를 이용하지만, 구글의 서비스는 브라우저는 아니다. 구글의 기간 사업은 검색 서비스이지만 구글은 검색 결과에 표시되는 콘텐츠조차 소유하고 있지 않다. 통화가 발신자와 수신자의 전화기뿐만이 아니라, 그 사이의 네트워크가 일어나도록 구글의 서비스는 브라우저, 검색 엔진, 그리고 목적의 콘텐츠가 보존되고 있는 서버 사이에 생겨 구글은 유저와 온라인으로의 경험을 묶어, 중개하는 역할을 완수한다.

넷스케이프나 구글은 어느쪽이나 소프트웨어 기업이라고 부를 수 있지만, 넷스케이프가 로터스, MS, 오라클, SAP 등의 1980년대의 소프트웨어 혁명으로부터 태어난 기업과 같은 소프트웨어의 세계에 속했다면 구글은 eBay, 아마존, 냅스터, 그리고 물론 더블클릭과 아카마이 등의 인터넷 애플리케이션 기업과 같은 그룹에 속한다.

더블클릭 vs 오버추어/애드센스
구글과 같이 더블클릭도 인터넷 시대의 산물이다. 더블클릭은 서비스로서 소프트웨어의 힘을 이용해, 데이터 관리를 핵심 능력(코어 컨피턴스(competence))으로 한다. 그리고 이미 설명한 대로 더블클릭은 「웹 서비스」라는 호칭이 등장하기 오래 전부터 웹 서비스를 제공해 온 선구적 기업이기도 했다. 그러나 더블클릭의 비즈니스는 그 비즈니스 모델에 의해서 제한을 받고 있었다. 더블클릭의 비즈니스는 90년대의 개념( 「웹은 퍼블리싱이며, 참가는 아니다」, 「웹을 지배하고 있는 것은 소비자가 아니고, 광고주이다」, 「규모가 중요한/인터넷은 미디어매트릭스(MediaMetrix)등의 웹 광고 조사 회사에 의해 결정되는 상위의 웹 사이트에 의해서 독점되고 있다」등 )에 중심을 두었기 때문이다.

더블클릭은 자사의 웹 사이트에서 동사의 소프트웨어가 「2000사 이상 성공리에 도입」되었다고 자랑스럽게 선언했다. 이에 비해 야후!서치 마케팅(구 오버추어(Overture))과 구글의 애드센스(AdSense)는 각각 수십만의 광고주에게 광고 서비스를 이미 제공하고 있다.

오버추어와 구글이 성공한 것을 크리스 앤더슨(Chris Anderson)이 「롱 테일」이라고 부른 것-즉, 웹의 과반수를 차지하고 있는 작은 사이트가 총체로서 큰 힘을 낳는 것을 양 회사가 이해하고 있었기 때문에-과 같다. 더블클릭의 서비스는 정식 계약을 통해 제공되므로 시장은 수천의 대규모 웹 사이트로 한정된다. 이에 비해 오버추어와 구글은 거의 모든 웹페이지에 광고를 게시하는 방법을 찾아냈다. 게다가 양 회사는 배너 광고나 팝업과 같은 발행자나 광고 대리점이 좋아하는 광고 형태가 아닌 소극적이고 문맥에 따른 소비자의 입장에 선 텍스트 광고를 선택했다.

웹2.0의 교훈:유저 셀프서비스와 알고리즘에 의한 데이터 관리를 도입해 웹 전체--중심부 뿐만이 아니라 주변부, 머리 뿐만이 아니라 긴 꼬리(롱 테일)의 끝에도 서비스를 제공한다.

당연히 이러한 태도는 그 외의 웹2.0 의 성공 사례에도 찾아볼 수 있다. 이베이는 중개 프로세스를 자동화하는 것으로 개인이 불과 수달러의 거래를 부정기적으로 할 수 있게 했다. 냅스터(법적 이유 때문에 활동을 중단했지만)는 악곡 중심의 데이터베이스를 구축하는 대신에 다운로드를 실시하는 모든 사람의 PC가 서버가 되어, 그 결과적으로, 네트워크가 확대되는 시스템을 구축해 네트워크를 펼쳐나갔다.

아카마이 vs 비트토런트
더블클릭과 같이 아카마이의 비즈니스도 꼬리는 아니고 머리에, 주변부는 아니고 중심부에 조준을 맞히고 있다. 아카마이는 중심부의 인기 사이트로의 액세스를 원활히 하는 것으로, 웹의 주변부에 있는 개인에게 이익을 주고 있지만 수익은 중심부의 사이트로부터 얻고 있다.

한편 비트토런트(BitTorrent)는 P2P의 다른 선구자들처럼 진보적인 어프로치로 인터넷의 분산을 꾀했다. 모든 클라이언트는 서버의 역할을 완수해, 파일은 세세하게 분리되어 여러 곳에서 공급된다. 대역폭과 데이터는 다운로드를 실시하는 사람들의 네트워크를 통해 유저의 인식없이 다른 유저에게 제공된다. 파일의 인기가 높은 만큼, 다운로드의 속도도 빨라진다. 인기 있는 파일 쪽이, 대역폭과 파일의 조각들을 제공하는 유저의 수도 많기 때문이다.

비트토런트는 웹2.0의 중요한 원칙을 입증하고 있다. 그것은 이용자가 증가하면 서비스는 자연스럽게 개선된다는 것이다. 아카마이가 서버를 늘리는 것 때문에 서비스를 개선할 수 없는데 비해 비트토런트는 소비자가 빠짐없이 자원을 가져온다. 비트로런트의 서비스에는 「참가의 아키텍처」, 즉 협력의 윤리가 포함되어 있어 서비스는 기본적으로 정보의 중개역으로서 웹의 주변부를 이어, 유저 자신 힘을 이용하기 위해서 존재하고 있다.

플랫폼은 항상 애플리케이션을 능가한다
MS는 플랫폼이 비장의 카드로서 모든 경쟁에서 승리해 왔다. 과거의 경쟁 상대 중에는 높은 시장 점유율을 자랑하는 애플리케이션도 있었다. MS는 윈도우를 이용해 로터스1-2-3를 엑셀에, 워드퍼펙을 워드에 그리고 넷스케이프 내비게이터를 인터넷 익스플로러에 옮겨놓았다.

그러나 이번 싸움은 플랫폼과 애플리케이션이 아니고 완전히 다른 비즈니스 모델을 가진 플랫폼끼리의 사이에서 벌어지고 있다. 한 쪽은 거대한 인스톨 베이스와 긴밀히 통합된 OS나 API를 무기로, 프로그래밍 패러다임(paradigm)를 지배하고 있는 소프트웨어 프로바이더, 다른 한편은 공통의 프로토콜, 개방적인 표준 그리고 협력 협정에 의해서 연결된 소유자를 가지지 않는 시스템이다.

윈도우는 소프트웨어 API에 의한 독점적 지배의 결정판이다. 넷스케이프는 MS가 다른 라이벌에 대해서 사용한 것과 같은 방법으로 MS의 지배권을 강탈하려고 했지만, 그 시도는 실패로 끝났다. 한편 웹의 개방적인 표준을 고집한 아파치(Aache)는 성공을 거두었다. 현재의 싸움은 플랫폼 대 애플리케이션이라는 어울리지 않은 것이 아니고, 플랫폼 대 플랫폼이라는 대등한 것이다. 이 싸움에서는 어느 쪽의 플랫폼이- 더 중요한 지, 어느 쪽의 아키텍처 또는 비즈니스 모델이 향후의 기회에 적합한지가 중요하게 된다.

PC시대의 초기에는 윈도우는 문제를 해결하기 위한 훌륭한 솔루션이었다. 윈도우는 애플리케이션 개발 기업에 공평한 씨름판을 제공해, 업계를 괴롭히고 있던 많은 문제를 해결했다. 그러나 하나의 회사가 관리하는 획일적인 어프로치는 이미 솔루션이 아니고 하나의 문제에 지나지 않는다. 커뮤니케이션 지향의 시스템(플랫폼으로서의 인터넷은 틀림없이 그 하나다)은 상호 운용성을 필요로 한다. 모든 상호작용의 양단을 관리할 수 없는 한 소프트웨어 API에 의해서 유저가 로그인 하는 것은 어렵다.

플랫폼을 지배하여 애플리케이션의 이득을 로그인 하려는 웹2.0 기업은 필연적으로 플랫폼을 비장의 카드로 하지는 않을 것이다.

로그인이나 경쟁 우위를 획득할 기회가 없는 것은 아니다. 그러나, 소프트웨어 API나 프로토콜을 지배하는 것으로 그러한 기회를 손에 넣는 것은 어려워질 것이다. 새로운 게임이 시작되었다. 웹2.0시대에 성공을 하는 것은 PC소프트웨어 시대의 룰로 퇴보하려고 하는 기업이 아니라 새로운 게임의 룰을 이해하고 있는 기업이다.

이 기사는 2005년 9월 30일에 O'Reilly Network로 공개된 것이다

[웹2.0] 집단 지능이 결집되다

[웹2.0] 집단 지능이 결집되다

Tim O'Reilly   2006/01/10  
웹 1.0시대에 탄생해 웹 2.0시대에도 여전히 성공가도를 달리고 있는 대기업은 웹의 힘을 사용해 집단 지능(Harnessing Collective Intelligence)을 이용한다는 웹 2.0의 원칙을 실천하고 있다.

집단 지능을 이용하는 웹2.0의 원칙

• 웹의 기반은 하이퍼 링크이다. 유저가 추가한 새로운 콘텐츠나 사이트는 그 외의 유저에게 발견되어 링크되는 것으로 웹의 구조에 포함된다. 뇌의 시냅스와 같이 이러한 연결은 반복과 자극에 의해서 강화되어 웹 유저 전체의 활동에 따르고, 유기적으로 성장해 간다.

• 초기 인터넷 시대의 대표적인 성공 기업인 야후는 카탈로그 혹은 링크 디렉터리로서 등장했다. 야후는 몇천명 또는 몇백만명의 웹 유저가 작성한 웹페이지를 모았다. 그 후, 야후는 사업을 확대해 다양한 콘텐츠를 다루게 되었다. 인터넷 유저 전체의 활동에 액세스하기 위한 포털이라고 하는 역할은 지금도 야후의 본질적인 가치가 되고 있다.

• 검색 분야에 있어서의 구글의 핵심 전략은 페이지순위(PageRank)였다. 페이지순위는 문서의 특징뿐만이 아니라 웹의 링크 구조를 사용하고 좀더 좋은 검색 결과를 이끌어내는 수법이다. 이 기술에 의해서 구글은 순식간에 누구나가 인정하는 검색 시장의 리더가 되었다.

• 이베이의 상품은 유저 활동 그 자체다. 웹과 같이 이베이도 유저 활동에 따라 유기적으로 성장한다. 이베이의 역할은 유저의 활동의 준비를 하는 것에 있다. 또 경쟁 기업과 비교했을 때 이베이의 강점은 구매자와 판매자가 임계규모(critical mass)에 이르고 있는 것이다. 이 때문에 같은 서비스를 제공하는 기업이 나타나도 그 서비스는 이베이보다 덜 매력적으로 여겨진다. 아마존은 반즈앤노블닷컴 등의 경쟁 기업과 같은 제품을 취급하고 있다. 그리고 양 사는 모두 같은 벤더로부터 제품 정보, 표지 그림, 목차 정보 등을 얻고 있지만 아마존은 유저의 참여를 포함시키는 구조를 구축했다.

아마존에는 타사의 몇 배의 유저 리뷰가 게재되고 있고 거의 모든 페이지에서 유저의 참여를 유도하고 있다. 특히 더 중요한 것은 아마존이 검색 결과를 개선하기 위해서 유저의 활동을 이용하고 있는 것이다. 반즈앤노블닷컴으로 검색하면 보통 자사의 제품이나 스폰서의 제품이 표시되는데 비해 아마존에서는 항상 가장 있기 있는 제품이 표시된다. 이 데이터는 매출뿐만 아니라 그 외의 요소—아마존을 잘 아는 사람들이 제품의 ‘흐름(flow)’라고 부르는 것에 근거해 리얼타임으로 정보를 제공한다. 타사보다 많은 유저 참여를 이끌어내는 것을 생각하면 아마존이 매출에서도 경쟁 회사를 앞지르고 있는 것이 전혀 놀라운 사실이 아니다.

웹에서는 현재 이 원칙을 이해해 한층 더 발전시키고 있는 혁신적인 기업이 두각을 나타내고 있다.

• 온라인 백과사전인 위키피디어(Wikipedia)는 누구라도 기사를 투고해 편집할 수 있다는 생각할 수도 없는 아이디어에 근거하고 있다. 위키피디어는 신뢰에 입각한 진보적인 실험이다. 또한 “눈만 충분히 있으면 어떤 버그도 심각하지 않다”라는 에릭 레이먼드(Eric Raymond)의 격언(원래는 오픈 소스 소프트웨어의 문맥으로 말해진 것)을 콘텐츠 작성에 적용하고 있다. 위키피디어는 이미 톱 100 웹 사이트로 꼽히고 있지만 많은 사람들은 톱 10에 진입하는 것은 시간 문제라고 보고 있다. 콘텐츠 작성의 세계에서는 큰 변화가 일어나고 있다!

• 최근 큰 주목을 끌고 있는 델리셔스(del.icio.us)나 플릭커(Flickr)와 같은 사이트는 폭소노미(folksonomy)의 선구자이다. 폭소노미란 많은 유저가 자유로운 키워드(일반적으로 태그라고 불린다)를 데이터에 부가하는 것에 의해 데이터를 완만하게 분류해 나가는 방법이다. 본래의 엄밀한 분류 방법과 달리 태그를 이용하면 뇌와 같은 복합적이고 중복된 조합을 만들어낼 수 있다. 예를 들어, 플릭커에 보내진 강아지의 사진에 ‘강아지’와 ’귀엽다’라는 태그를 붙이면 다른 사람들은 어디에서나 자신의 생각과 맞는 사람의 키워드로 이 사진을 찾아낼 수 있다.

• 클라우드마크(Cloudmark)와 같은 스팸메일 필터링 제품은 많은 메일 이용자의 판단을 기초로 어떤 메일이 스팸메일인가, 그렇지 않은가를 판정한다. 판정 정도는 메시지만을 분석하는 기존 방법보다 높다.

• 인터넷 시대의 성공 기업은 자사의 제품을 광고 하지 않는다. 이러한 기업의 제품은 ‘바이러스 마케팅(viral marketing)’, 즉 유저의 소문에 의해서 퍼진다. 광고에 의존하는 사이트나 제품은 웹 2.0은 아니라고 판단해도 틀림없다.

• 오픈 소스의 협동적인 개발 방법은 많은 웹 인프라(Linux, Apache, MySQL, 대부분의 웹 서버에 포함되는 Perl, PHP, Python의 코드 등)에도 적용되고 있다. 오픈 소스 그 자체도 인터넷이 가능하게 한 집합지의 일례다. 소스포지닷넷(SourceForge.net)에는 10만 건을 넘는 오픈 소스 소프트웨어 프로젝트가 등록되어 있다. 이 사이트에는 누구나 프로젝트를 추가할 수 있어 코드를 다운로드하고 그것을 이용할 수 있다. 유저가 이용하는 것에 의해서 새로운 프로젝트는 주변부에서 중심부로 이동한다. 이것은 거의 100%를 바이러스 마케팅에 의존한 유기적인 소프트웨어의 채용 프로세스이다.

교훈:웹 2.0시대에는 유저의 공헌이 가져오는 네트워크 효과가 시장 우위를 획득하는 가장 중요한 요소다.

참여의 아키텍처
몇 개의 시스템은 최초부터 유저의 참여를 유도하도록 설계되고 있다. 댄 브리클린(Dan Bricklin)은 논문 ‘The Cornucopia of the Commons’에서 대규모 데이터베이스를 구축하는 세 가지 방법을 설명했다. 첫 번째는 야후가 보여준 방법으로 데이터베이스를 구축하기 위해 사람들을 고용하는 것이다. 두 번째는 오픈 소스 커뮤니티에서 힌트를 얻은 방법으로 이 작업을 진행할 자원봉사자를 구하는 것이다. 오픈 디렉터리 프로젝트가 하나의 예로 볼 수 있다. 세 번째가 냅스터(Napster)이다. 냅스터는 다운로드 받은 음악을 자동으로 업로드하게 되어 있다. 이 결과 모든 유저는 자동적으로 공유 데이터베이스의 가치의 향상에 공헌하게 되었다. 이후 모든 P2P 파일 공유 서비스는 이러한 접근 방식을 따르고 있다.

웹 2.0시대의 중요한 교훈의 하나는 유저가 가치를 더한다는 것이다. 그러나 소수의 유저만이 자신의 시간을 할애해 기업 애플리케이션의 가치를 높이려고 할 것이다. 따라서 웹 2.0 기업은 애플리케이션의 일상적인 사용의 부수 효과로 유저 데이터를 수집하고, 애플리케이션의 가치를 높일 수 있는 포괄적인 정책들을 설정해야 한다. 앞서 언급한 것처럼, 웹 2.0 기업의 시스템은 이용자가 증가할수록 개선된다.

미치 케이퍼(Mitch Kapor)는 “아키텍처는 정책이다”라고 말했다. 참여는 냅스터의 본질이며, 기본 아키텍처의 일부분이다.

이러한 참여의 아키텍처가 종종 언급되는 자원봉사 정신보다 오픈 소스 소프트웨어의 성공에 기여했을지도 모른다. 인터넷, 월드 와이드 웹, 리눅스, 아파치, 펄 등의 오픈 소스 소프트웨어에는 이러한 아키텍처가 적용되고 있어 ‘이기적인’인 관심사를 추구하는 개인 사용자들이 집단 가치까지 높일 수 있게 되어 있다. 이러한 프로젝트들 각각은 작은 핵심, 명확하게 정의된 확장 구조, 사용자들이 추가할 수 있도록 잘 정의된 컴포넌트를 갖고 있다. 이것은 펄의 창시자인 래리 윌(Larry Wall)이 ‘양파’를 예를 들어 설명한 성장하는 외부 계층들을 갖고 있다. 이러한 기술은 그들이 고안했던 방식대로 네크워크 효과를 낳고 있다.

이러한 프로젝트는 참여의 아키텍처에 적절한 것인지도 모른다. 그러나 아마존에서 보여준 것처럼 지속적인 노력(제휴 프로그램과 같은 인센티브를 이용하면)을 하면 이 아키텍처와는 전혀 무관하다고 생각되는 시스템에도 참여의 아키텍처를 적용할 수 있다.

블로그와 집단의 지혜
웹 2.0시대의 특징으로 가장 많이 언급되는 것이 블로그의 출현이다. 개인 홈 페이지는 웹의 초기부터 존재했고, 일기나 개인의 의견을 엮은 컬럼은 그 이전부터 있었다. 그렇다면 지금 이 정도로 각광을 받고 있는 것을 무엇 때문인가.

블로그의 기본은 일기 형식의 개인 홈페이지다. 그러나 리치 스크렌터(Rich Skrenta)가 지적한 대로 블로그의 연대기적 구조는 사소한 차이로 보이지만 기존과는 완전히 다른 전달 방법, 광고, 가치 사슬을 생산하고 있다.

블로그를 특별하게 만든 또 하나의 요인은 RSS로 불리는 기술이다. RSS는 웹의 기본 구조에 중요한 진보를 가져왔다. 초기 해커들은 CGI를 사용하는 것으로 데이터베이스와 연동한 웹 사이트를 구축할 수 있는 것을 발견했다. 그 시기 이후 RSS는 가장 중요한 진보라 할 수 있다. RSS를 이용하면 페이지에 링크할 뿐만 아니라 그 페이지를 구독할 수 있어 페이지가 변경될 때마다 변경 사실을 알 수 있다. 스크렌터는 이것을 ‘성장하는 웹(the incremental)’이라고 부르고, 다른 이들은 ‘라이브 웹(live web)’이라고 부른다.

물론 데이터베이스와 연동해 동적으로 콘텐츠를 생성하는 ‘동적인 웹 사이트’가 정적인 콘텐츠를 갖는 웹 페이지를 대체한 것은 수십년 전이다. 라이브 웹에서 동적이라고 하는 것은 페이지뿐만 아니라 링크도 의미한다. 블로그에 링크하는 것은 계속 바뀌는 페이지에 링크하는 것과 동일하다. 각각의 기사에 링크할 때는 고유링크(permalink)를 이용한다. 블로그에 갱신된 사항이 있으면 이를 알려주는 메시지가 전달된다. 이와 같이 RSS 피드는 북마크나 링크보다 훨씬 강력하다.

또한 RSS는 웹 브라우저가 단순히 웹 페이지를 보여주는 수단이 아니라는 것을 의미한다. RSS 수집기에는 블로그라인과 같은 웹 기반인 것도 있지만 데스크톱 클라이언트도 있다. 그 외에 사용자가 휴대 기기에서 끊임없이 갱신되는 콘텐츠를 볼 수 있도록 해주는 것도 있다.

현재의 RSS는 블로그의 기사뿐만이 아니라, 주가, 날씨 정보, 사진 등 모든 종류의 데이터의 갱신을 알리기 위해 이용되고 있다. 이것은 RSS의 근원까지 거슬러 올라간다. RSS는 1997년에 정기적으로 갱신된 데이터의 정보를 보내기 위해 이용되던 데이브 위너(Dave Winer)의 ‘Really Simple Syndication’ 기술과 넷스케이프의 ‘Rich Site Summary’가 합류하는 것에 의해서 탄생했다. Rich Site Summary는 넷스케이프의 포털 사이트를 사용자가 커스터마이즈해 갱신 정보를 정기적으로 얻을 수 있도록 하는 기술이었지만 넷스케이프는 이 기술에 흥미를 갖고 있지 않았다. 결국 이 기술은 블로그의 개척자인 유저랜드(Userland)에 의해 발전했다. 현재의 RSS 관련 애플리케이션에는 양쪽 기술 모두를 볼 수 있다.

그러나, 일반적인 웹 페이지와 블로그를 구별해주는 것은 RSS만이 아니다. 톰 코티스(Tom Coates)는 고유링크(permalink)의 중요성에 대해 다음과 같이 말하고 있다.

“…사소한 기능과 같이 생각될지도 모르지만 고유링크(permalink)의 등장에 따라 블로그는 간단하게 정보를 보낼 수 있는 툴에서 커뮤니티들이 회화 형식으로 생산되는 것으로 바뀔 수 있었다. 고유링크에 의해 처음으로 다른 사이트의 특정 기사에 대해 의견을 내놓고 사이트의 소유자와 대화할 수 있는 것이 가능하게 되었다. 토론이 등장하고 채팅이 시작되었다. 그 결과, 우정이 생겼거나 혹은 우정을 더욱 견고하게 만들었다. 고유링크는 블로그와 블로그를 엮는 첫 번째이자 가장 성공적인 시도였다”(코티스)

RSS와 고유링크는 웹 프로토콜인 HTTP 위에 유즈넷(Usenet)의 NNTP(Network News Protocol)의 많은 특성을 다양한 방법으로 추가시켰다. 블로그스피어(blogosphere)는 초기 인터넷의 대화의 장으로 여겨졌던 유즈넷과 게시판이라고 할 수 있다. 사람들은 서로의 사이트를 읽고 각 페이지의 코멘트에 간단하게 링크하는 것이 가능하다. 뿐만 아니라 트랙백(trackback)이라고 불리는 구조를 사용하면 다른 사람이 자신의 페이지에 링크한 것을 알 수 있어 상호 링크하거나 코멘트를 추가하는 것으로 응답할 수 있다.

흥미롭게도 양방향 링크는 제나두(Xanadu)와 같은 초기 하이퍼 텍스트(hyper text) 시스템이 목표였다. 하이퍼 텍스트(hyper text) 순수주의자들은 트랙백을 양방향 링크를 실현하기 위한 걸음으로서 환영했다. 그러나 트랙백은 엄밀하게는 양방향이 아니다. 양방향 링크와 동등한 효과를 만들어내는 대칭적인 단방향 링크이다. 이 차이가 사소하게 생각될지도 모르지만 실제로는 매우 크다.

예를 들어, 상대의 승인이 있어야만 커넥션을 구축할 수 있는 ‘Friendster’, ‘ Orkut’, ‘LinkedIn’과 같은 소셜 네트워킹 시스템은 웹 정도의 확장성을 갖고 있지 않는다. 사진 공유 서비스인 플릭커(Flickr)의 공동 설립자인 캐터리나 페이크(Caterina Fake)가 지적한 대로 상호 관심을 갖게 되는 것은 우연히 일어나는 것이다. (이 때문에 플릭커에서는 유저가 관찰 목록(Watch List)를 작성해 한 유저가 RSS를 통해 다른 유저가 갱신하는 사진을 볼 수 있도록 하고 있다. RSS에 등록했을 경우, 상대에게도 알려지지만 승인을 받을 필요는 없다)

웹 2.0의 본질이 집단 지능을 이용해 웹을 글로벌 브레인으로 바꾸는 것이라고 하면 블로그스피어는 끊임없이 계속되는 뇌 속의 대화를 모든 유저가 들을 수 있도록 하는 것이다. 이것은 뇌의 깊은 부분에서 거의 무의식가운데 행해지고 있는 사고가 아니라 오히려 의식적인 사고에 가깝다. 그리고, 의식적인 사고와 관심으로 인해 블로그스피어는 큰 영향력을 가지게 되었다.

검색 엔진은 적확한 검색 결과를 이끌어내기 위해서 링크 구조를 이용하고 있다. 이로 인해 대량의 링크를 만들어내는 블로거들은 검색 엔진 결과를 생성하는 중요한 역할을 하고 있다. 또한 블로그 커뮤니티는 극히 자기 언급적이기 때문에 다른 블로거가 주목하는 것으로 블로그의 존재감과 영향력을 확대하게 된다. 비평가들이 비난하고 있는 ‘반향실(echo chamber)’도 또 다른 증폭기이다.
 
이것이 단순한 증폭기였다면 블로그는 보잘 것 없는 것이 되었을 것이다. 그러나 위키피디어(Wikipedia)와 같이 블로그에서는 집단 지능이 일종의 필터 역할을 하고 있다. 제임스 슈리어웨키(James Suriowecki)가 ‘집단의 지혜’라고 부른 것이 페이지순위가 개별 문서를 분석하는 것보다도 뛰어난 검색 결과를 만들어내는 것처럼 블로그스피어에서는 집단의 관심이 가치 있는 것을 선별해낸다.

주류 미디어는 특정 블로그를 경쟁 상대라고 생각하겠지만 정말로 걱정스러운 것은 경쟁 상대가 블로그스피어 전체라는 것이다. 이것은 단순한 사이트간의 경쟁이 아니라 비즈니스 모델간의 경쟁이다. 웹 2.0 의 세계는 댄 길모어(Dan Gillmor)가 ‘우리가 미디어다(We, the media)’라고 부른 세계이기도 하다. 이 세계에서는 소수의 사람들이 은밀한 곳에서 무언가를 결정하는 것이 아니라 ‘한 때의 청중’이 무엇이 중요한가를 결정한다. @

이 기사는 2005년 9월 30일에 O'Reilly Network로 공개된 것이다.

「한국형 웹2.0 서비스」의 현 주소

「한국형 웹2.0 서비스」의 현 주소

윤석찬 (다음 R&D 센터 팀장)   2006/01/10
지금 실리콘밸리에 다시 한번 닷컴붐(Boom)이 일어나고 있다. 1990년대 말 일었던 거품(Bubble) 현상은 아니지만 닷컴 업계에 신선한 충격을 주기에는 충분하다.

많은 벤처 투자자들이 다양한 웹2.0 기반 벤처 기업과 사업가들을 지원 하고 있고, 이미 몇몇 회사들은 대형 포털에 M&A 되거나 자체적인 성공을 거두었다. 뿐만 아니라 이제 웬만한 신규 서비스에서 웹2.0이 주창하는 개념을 차용하는 것을 어렵지 않게 볼 수 있게 되었다.

아마 ZDNet의 열렬한 독자라면 ‘웹2.0’이라는 키워드에 대한 기사를 많이 봐 왔을 것이다. 소위 ‘사용자 기반 참여 문화’와 ‘집단 지성’, ‘오픈 데이터 공유’로 대별 되는 웹2.0이라는 키워드는 처음엔 그것을 위해 정의된 것은 아니었다 하더라도 충분히 이전 웹과 차이점을 설명해 주기에 충분할 정도로 성공적인 서비스들을 이끌어 냈다. 참여 문화의 정점에 있는 ‘블로그(Blog)’, 다수 사용자 기반 비즈니스 모델인 구글 애드센스(Adsense), 온라인 백과 사전 위키피디어(Wikipedia), 소셜 북마크인 딜리셔스(Delicious), 사진 공유 서비스 플릭커(Flickr) 등 미국에서 부각되는 서비스 만을 예제로 삼다 보니 국내에서는 마치 이런 흐름에 뒤떨어진다는 인식을 받기에 충분했다.

그렇지만 우리 나라는 세계 어느 나라 보다 인터넷과 웹을 빨리 받아 들이고 소화하여 세계 최대의 웹 인프라를 가지고 있다. 브로드 밴드로 제공되는 인터넷 서비스 하나 하나가 사실 세계적인 것들이 많다. 웹2.0에 대해서도 예외가 아니다. 이미 많은 서비스들이 웹2.0이 말하는 개념이 알게 모르게 가미되어 제공 되는 세계적인 것들이다. 오늘은 이런 서비스를 소개함과 아울러 우리가 어떻게 하면 세계적인 인터넷 서비스 강국이 될 수 있을지 생각해 본다.

우리가 가장 앞서 있는 온라인 참여 문화
웹2.0의 기본 키워드는 사용자 참여 문화이다. 블로그(Blog)는 참여 문화의 원동력이 되었는데, 온라인에서 출판이라는 기존 문화를 답습하지 않고 개인 미디어의 힘을 보여준 사례라고 하겠다. 많은 개인 블로그들이 자신이 만든 콘텐츠를 RSS라는 간단한 형식으로 배포 하고 트랙백(Trackback)과 답글(Comment)로 의사 소통을 한다.

사실 한국의 온라인 참여 문화 수준은 가히 세계적이라고 할 수 있다. 외국에서도 익히 알려진 시민이 직접 참여하는 온라인 미디어인 오마이뉴스(Ohmynews)를 비롯하여 몇 년 사이 대한민국 전체가 연결되어 있다고 해도 과언이 아닐 정도의 싸이월드(Cyworld) 미니 홈피라는 개인 미디어가 폭발적인 인기를 누리고 있다. 네이버(Naver) 블로그를 비롯하여 포털에서 제공하는 블로그는 검색 결과에서 상위에 노출될 정도로 좋은 정보와 내용을 담고 있는 것들이 많다. 물론 개인적인 일상에 대한 이야기만 다루고 기존 매체를 스크랩하는 소위 ‘펌 문화’가 만연하고 있다고 하지만 이들 속에서 꿈틀거리는 참여 문화는 결코 무시할 수 없는 것들이다. 또한, 미디어 다음(Media Daum) 내에 사용자가 직접 참여하는 여론 광장인 아고라(Agora)라는 게시판형 서비스는 단순해 보이기 까지 하지만, 독특한 사용자 콘텐츠가 나왔다 싶으면 수십 만명이 읽고 수천 개의 답글이 달리는 것이 익숙할 정도로 강력한 참여를 이끌어 낸다.

기존 포털 뿐만 아니라 새로 시작되고 있는 서비스 중에도 참여 문화가 대표적인 키워드로자리 매김하고 있다. 이글루스(Egloos)라는 서비스는 포털 블로그와 유사하지만 전문 블로거들을 위한 기반 시스템을 잘 갖추어 주고 있다. 블로깅에 대한 좀 더 다양한 기능과 재미를 맛보고 싶은 사람이라면 태터툴즈(Tattertools)라는 블로그 프로그램을 이용해도 된다. 이 프로그램은 개인이 만든 프로그램이었지만 그 동안 많은 사용자가 참여하여 피드백을 통해 더 좋은 프로그램을 만들고 있는 지속적인 베타 프로그램의 가장 좋은 예이다.

최근에 나온 태터툴즈 1.0 버전은 외국에서 유명한 워드 프레스(WordPress)만큼 질 높은 프로그램으로 성장해 있다. 이런 전문적인 블로거들은 올블로그(Allblog)라는 메타 블로그 사이트에서 만나 볼 수 있다. 각 분야에서 다양한 블로거들이 쏟아 내는 신선한 정보와 토론 문화를 접해 볼 수 있다. 이들은 한국에서 좀 더 웹2.0다운 참여 문화를 이끌어 내는 선봉장 들이다.

참여 문화에서 집단 지성으로
온라인 백과 사전인 위키피디어(Wikipedia)에 대응되는 국내 서비스는 단연 네이버 지식인을 들 수 있다. 위키피디어는 사용자가 직접 수정을 할 수 있는 권한과 책임을 동시에 제공하면서도 틀린 정보라도 다른 사람이 고쳐 놓을 것이라는 집단 지성(Collective Intelligence)이라는 믿음에 근거 하고 있다. 지식인 서비스 역시 다수의 사용자가 참여해 만든 3천 7백만 건의 Q&A로 이루어진 정보로 이루어져 있다. 다수의 지식이 답변으로 등록되지만 그 중에 채택되는 것은 하나의 답변이다. 그나마 그 답변이 틀린 경우에는 신고하기나 답글을 통해 고쳐질 수 있도록 하고 있다. 얼마 전 지식인과 똑 같은 Yahoo! Answers라는 서비스가 미국에서 시작될 정도로 웹2.0 다운 서비스라고 할 수 있다.

웹2.0 서비스의 단골 분류법으로 사용되고 있는 것이 바로 태그(Tag)이다. 태그는 기존의 소수의 관리자가 중앙에서 관리하던 디렉토리(Directory) 분류법과 달리 사용자가 생산한 콘텐츠에 자신이 직접 연관 정보 키워드를 입력함으로서 사용자 참여를 통해 분류하고 정보를 재정리할 수 있는 서비스들이다. 이미 2000년대 초반 다음 카페에서 카페를 키워드를 통해 분류를 할 수 있도록 해 주었을 정도로 출발은 빨랐다. 국내 대부분 블로그와 미니 홈피 서비스들이 이미 태그를 지원하고 있다.

태그(Tag)의 유용성을 좀 더 빨리 확인 하고 싶으면 국내에서 시작된 소셜 북마크 서비스인 야후!허브, 태터 툴즈 사용자 기반 서비스인 이올린(Eolin), 협업을 통한 사진 올리기 놀이인 다음 파이(Pie) 서비스에 가면 재미있게 체험해 볼 수 있다.

2% 부족한 오픈 데이터 모델로 삼박자 갖추어야
지금까지 나열된 서비스뿐만 아니라 우리 나라의 닷컴들이 견지해 온 대표적인 수익 모델들 역시 웹2.0 비즈니스 모델에 괄목한 만하다. 연일 시장 가치가 오르고 있는 NHN의 경우 검색을 기반으로 하는 소액 광고주를 끌어 모은 키워드샵(Keyword Shop)이 성장의 견인차 역할을 했다. 물론 지금은 대부분 포털 업체가 오버추어(Overture)에 아웃소싱을 주고 있기는 하지만 대형 광고주가 아닌 소액 광고주들이 주요 닷컴 기업을 먹여 살리는 주 수입원이라는 점에는 이견이 없다. 뿐만 아니라 아바타, 도토리, 배경 음악 같은 아이템 상품을 통한 닷컴 기업의 성장 이면에는 역시 온라인에서만 제공되는 가치를 인정하고 기꺼이 지불해 준 다수의 고객들이 있었다.

이렇듯 참여 문화과 집단 지성 그리고 비즈니스 모델까지 우리 나라 웹 서비스는 꽤나 웹2.0답다고 말할 수 있다. 이들 서비스들 중에 부족한 것을 들라고 하면 바로 오픈 데이터 모델(Open Data Model)이다. 웹2.0의 개념 중에는 사용자가 생산하는 데이터를 사용자에게 관리 권한을 돌려 주는 오픈 데이터 모델이 있다. 이 모델에 근거하여 사용자가 직접 데이터를 입/출력 할 수 있고, 이를 기반해서 다양한 서비스들 사이에 혼합(Meshing) 서비스가 나올 수 있도록 오픈 API, 오픈 스탠다드를 기반한 서비스를 만들고 있다. 해외에서는 RSS라는 가장 기본적인 데이터 배포 수단은 많은 곳에서 제공되고 있다. 또한, 내가 좋아하는 태그가 달린 콘텐츠나 링크를 공유하고 찾아 볼 수 있게 할 수도 있다.

유감스럽게도 우리 나라 웹 서비스들 특히 포털 서비스에서는 이것이 매우 약하다. 싸이월드에서도 RSS를 제공하는가 싶더니 막아 버렸다. 블로그에서도 오픈 API를 제공하는데 인색하다. 이는 각 서비스들이 자기 안에서 확대 재생산을 하게 하고 싶은 닫힌 웹을 지향하기 때문에 그렇다. 미니 홈피와 블로그에서 일어나는 펌 현상 또한 이러한 닫힌 웹에서 일어나는 현상 중 하나이다. 우리 나라 내에서 경쟁을 두려워하여 닫힌 서비스로 일관한다면 웹2.0적인 부분을 포함 하고 있더라도 웹1.9라고 평가 절하 될 수 밖에 없다.

글로벌 서비스로 가려면 열어라
미국 실리콘 밸리에서는 경쟁사에 있는 다양한 사람들이 웹2.0에 대한 의견을 교환하고 좀더 나은 곳을 벤치 마킹하기 위한 활동들이 활발하고 자주 모여 토론하는 문화를 가지고 있다. 미국이 인터넷 세상을 주도하는 이유에는 열린 경쟁을 통한 협력으로 시장의 파이(Pie)를 키워나간다는 데 있다.

우리 내부의 경쟁에 너무 심각하게 길들어진 나머지 우리의 세계적인 서비스들이 좀 더 글로벌하게 만들어 내지 못하고 있다. 앞서 나열한 대로 그 만큼 세계적인 서비스에 가깝고 우리가 앞서 나갔던 부분이 많았다. 그런데도, 우리가 이들을 세계적으로 수출하지 못했던 이유가 바로 이것이다. 지금 주요 포털들이 해외 진출을 시도하고 있긴 하지만 미니 홈피가 미국 시장에서 이미 마이 스페이스(MySpace)와 페이스북(FaceBook)에 밀리고, 이미 야후앤서(Yahoo! Answer), 어바웃닷컴(About.com)에 지식인이 선점 당했다. 이제 한국형이라고 말할 수 있는 서비스들 즉, 작게는 사용자 기호에 가장 최적의 검색을 제공하는 통합 검색 기능에서부터 브로드 밴드를 기반한 대용량 멀티미디어 콘텐츠 서비스와 휴대 인터넷, 모바일 환경에 기반한 다양한 커뮤니케이션 환경으로 만들어질 수 있는 웹 서비스들이 세계적이 되지 말라는 법은 없다.

오피니언 리더들이 구글이나 야후, MSN 같은 회사들의 서비스를 말하고, 웹2.0을 이야기 하는 이유는 단지 그들을 맹목적으로 숭배하기 때문만이 아니다. 바로 여기서 미래를 위한 통찰력(Insights)를 얻어내 우리가 만드는 것이 세계적이라는 생각을 바탕으로 글로벌 시장 경쟁 환경을 우리 내부에서 만들 수 있어야 한다고 믿기 때문이다. 우리가 글로벌 경쟁에서 성공하려면 내부 경쟁자를 동반자라고 믿어야 한다. 외부에서 일어나는 트렌드와 동향을 빠르게 흡수해야 한다. 누가 먼저 시작하느냐가 아니라 우리가 먼저 시작해야 한다. 웹2.0 시대에서 사용자에게 가치를 제공하기 위해 서로 열린 환경의 웹을 만들 때 그것이 바로 우리가 주도하는 세계적인 웹 서비스의 열쇠가 될 것이다. 웹은 집중되지 않고 분산되어 있을 때와 닫혀 있는 것이 아니라 열려 있을 때 가장 큰 힘을 발휘하기 때문이다.@

2006년 1월 9일 월요일

Flash COmponent

http://laco.wz.cz/tween/

http://weblogs.macromedia.com/flashjavascript/

 

탐색 해보고 싶은 싸이트

MeasureMap Flash Slider Released

MeasureMap Flash Slider Released

Category: Component, Examples, Flash

Adaptive Path have kindly released a two bundles of the date slider widget that they use in Measure Map (which we covered in the past).

The date slider is a Flash visualization that Measure Map uses as one way to navigate the site. We are happy to provide a version of this date slider to the public.

What the slider does

After sending the date slider an initial date_range variable in JavaScript,
the slider automatically moves to display the given date range. Then as the
user interacts with the date slider, three variables are sent from Flash to
JavaScript.

  • Raw Date Range: A range of dates in the following format (20050721T00:00:00-20050809T00:00:00)
  • Clean Date Range: A range of dates in the following format (Thur. July 21-Tues.
    Aug. 09)
  • Total Count: A total count of the dates within the defined date range

How you can customize it (variables set in the JavaScript)

  • Bar color (bar_color): The color of the graph bars
  • Box Color (box_color): The color of the box that stretches to follow
    the handles
  • Line Color (line_color): The color of the graph lines in the background
  • Tracking Variable Name (variable_name): “Things” can become
    anything
  • XML File Name (file_name): file name and location (could be URL to dynamic
    XML file). See example

Some Rules

  • The XML file must be formatted in the same way as date_slider_data.xml
  • The XML node value may change, however the ‘date’ node must be formatted
    the same way
  • The XML file must have exactly 120 nodes

What the Slider Uses

Downloads

Measure Map Date Slider

Posted by Dion at 1:03 am

+++--
3 rating from 2 votes

Comments Here »