道의 핵심은 지행합일(知行合一) | ||
|
http://blog.naver.com/mokpojsk
道의 핵심은 지행합일(知行合一) | ||
|
http://blog.naver.com/mokpojsk
http://picasaweb.google.com/outofwrd/200612
모두 축소 | 모두 확장]
눈사람 만들기 1단계 눈을 뭉친다. 둥굴게 둥굴게,..^^ 현서야! 더크게 더크게... 아이구!! 아빠가 더작네... 1000.JPG 날짜: 2006. 12. 25 오전 12:31Number of Comments on Photo: 1 |
눈사람 만들기 2단계, 눈덩이를 위로 올린다. ^^ 와! 우리 현서 힘 세네.. 그걸 어떻게 올렸니... 혼자서 올리다니.. 크헉 1001.JPG 날짜: 2006. 12. 25 오전 12:31Number of Comments on Photo: 1 |
눈사람 만들기 3단계, 이제 토토로 모습으로 꾸미기.. ^^ 현서 보다 키가 크네.. 토토로는 갑자기 생각이 났어요. ^^ 어그제 본 에니를 보고 생각이 나서 현서와 같이 만듬.. 1002.JPG 날짜: 2006. 12. 25 오전 12:31Number of Comments on Photo: 1 |
현서 예림 유치원 음악회에서 멋지게 탬버린을 연주하는 모습.. 어엿한 어른이 된것 같아요. ^^ SSL22325.JPG 날짜: 2006. 12. 25 오전 12:31Number of Comments on Photo: 1 예림 유치원 홈페이지
|
23일 가족끼리 국립 과학관에 가서 다빈치전에 가다. 착시의방을 보고서 현서와 같이 글을 읽고 있다. RES03383.JPG 날짜: 2006. 12. 25 오전 12:31Number of Comments on Photo: 1 |
현서가 착시의방에서 뛰어 나오고 있다. SSL22385.JPG 날짜: 2006. 12. 25 오전 12:31Number of Comments on Photo: 1 |
2006년 크리스마스날 현서가 싼타 할아버지가 가져온 헬기 선물을 들고서 포즈를 취하고 있다. 넘 흥분한 현서를 카메라로 찍지 못한게 아쉽다. SSL22471.JPG 날짜: 2006. 12. 25 오전 12:31Number of Comments on Photo: 1 |
2006년 12월 24일 크리스마스 케익을 앞에 두고... 포즈.. 선물에 케익에 .. 그런데 케익이 맛이 없다고 한번먹구 그만.. ^^ SSL22477.JPG 날짜: 2006. 12. 25 오전 12:31Number of Comments on Photo: 1 |
12월 25일 크리스마스 아침부터 서둘러 해피피트를 보러 가서.. 현서와 같이 요그르트 아이스크림을 먹다. 먹음지그 스럽다. 이타리아 돌?? 제품이란다. 독산 프리머스에서.. 2001.JPG 날짜: 2006. 12. 25 오전 12:32Number of Comments on Photo: 1 |
해피피트를 보기전 포즈 웃어바바 현서야 .. 김치... ^----^ 2002.JPG 날짜: 2006. 12. 25 오전 12:32Number of Comments on Photo: 1 |
해피피트를 보구서 어직두 눈앞에 보이는지... 튀어나올거 같당.. ^^ SSL22549.JPG 날짜: 2006. 12. 25 오전 12:32Number of Comments on Photo: 1 |
해피피트를 보구서 역시 다컸어... ^^ 2003.JPG 날짜: 2006. 12. 25 오전 12:32Number of Comments on Photo: 1 |
[웹2.0] 데이터는 차세대의「인텔 인사이드」 Tim O'Reilly 2006/01/11 ![]() |
|
중요한 인터넷 애플리케이션에는 반드시 그것을 지지하는 전문 데이터베이스가 있다. 구글의 웹 크롤, 야후의 디렉토리, 아마존의 제품 데이터베이스, 이베이의 제품 데이터베이스, 맵퀘스트(MapQuest)의 지도 데이터베이스, 냅스터의 분산형 악곡 데이터베이스 등이 그것이다. 지난해 할 베리안은 “SQL이야말로, 차기 HTML이다”라고 말했다. 데이터베이스 관리는 웹 2.0의 핵심 능력이기도 하다. 때문에 이런 애플리케이션은 단지 소프트웨어가 아니고, ‘인포메이션 웨어(infoware)’라고 불리기도 한다. 이 사실은 중요한 물음, 즉 “그 데이터를 소유하고 있는 것은 누구인가”라는 물음을 던진다. 인터넷 시대에는 데이터베이스를 컨트롤하여 시장을 지배해, 막대한 수익을 올린 기업이 적지 않다. 초기에 정부의 위탁을 받고 네트워크 솔루션(Network Solutions, 후에 베리사인이 인수)이 독점한 도메인명 등록 사업은 인터넷에 있어서의 최초의 달러 박스 사업이 됐다. 인터넷 시대에는 비즈니스 우위를 확보하는 것은 훨씬 어려워진다고 했지만, 소프트웨어 API를 지배하는 것으로 중요한 데이터 소스를 지배한다면 우위를 확보하는 것은 그렇게 어렵지 않다. 그 데이터 소스가 작성에 막대한 자금을 필요로 하는 것이거나, 네트워크 효과에 의해 수익을 확대할 수 있는 경우는 더욱 그렇다. 예를 들어, 맵퀘스트, 맵스야후닷컴(maps.yahoo.com), maps.msn.com, maps.google.com등이 생성하는 지도에는 반드시 “지도의 저작권은 NavTeq, TeleAtlas에 귀속됩니다”라고 하는 문장이 덧붙여져 있다. 최근 등장한 위성 화상 서비스의 경우는 “화상의 저작권은 디지털 글로브(Digital Globe)에 귀속됩니다”라고 쓰여져 있다. 이런 기업은 막대한 자금을 투자하고 독자적인 데이터베이스를 구축했다. 내브텍(NavTeq)은 7억 5000만 달러를 들여 주소/경로 정보 데이터베이스를 구축했고, 디지털 글로브는 공공 기관으로부터 공급되는 화상을 보완하기 위해 5억 달러를 들여 위성을 쏘아 올렸다. 내브텍은 친숙한 인텔 인사이드 로고를 모방해, 카 내비게이션 시스템을 탑재한 차에 ‘NavTeq Onboard(내브텍 탑재차)’라는 마크를 붙이고 있다. 실제 이런 애플리케이션에 있어서, 데이터는 인텔 인사이드라고 불릴 만큼 중요성을 가지고 있다. 소프트웨어 인프라의 거의 모든 것을 오픈 소스 소프트웨어나 상품화한 소프트웨어로 조달하고 있는 시스템에 있어서, 데이터는 유일한 소스 컴포넌트이기 때문이다. 현재 격렬한 경쟁이 전개되고 있는 웹 매핑 시장은 애플리케이션의 핵이 되는 데이터를 소유하는 것이 경쟁력을 유지하는데 있어서 얼마나 중요한가를 나타내고 있다. 웹 매핑이라고 하는 카테고리는 1995년에 맵퀘스트가 만들어 낸 것이다. 맵퀘스트는 선구자였지만, 야후, MS, 그리고 최근에는 구글과 같은 신규 참가자가 부각되도록 했다. 이런 기업은 맵퀘스트와 같은 데이터의 사용 허락을 받아 경쟁되는 애플리케이션을 거뜬히 구축할 수 있었다. 그것과 대조적인 것이 아마존이다. 반스앤노블즈닷컴(Barnesandnoble.com) 등의 경쟁 기업과 같이 아마존의 데이터베이스도 원래초는 R.R. 바우커(Bowker)가 제공하는 ISBN(국제표준도서 번호)을 기초로 한 것이었다. 그러나 맵퀘스트와 달리 아마존은 바우커의 데이터에 출판사로부터 제공되는 표지 화상이나 목차, 색인, 샘플 등의 데이터를 추가하는 것으로, 데이터베이스를 철저하게 확장해 갔다. 더 중요한 것은 이런 데이터에 유저가 코멘트를 달 수 있다는 것이다. 10년 지난 지금은 바우커는 아니고 아마존이 서지 정보의 주요한 정보원이 되고 있다. 소비자뿐만 아니라, 학자나 사서도 아마존의 데이터를 참조하고 있다. 또 아마존은 ASIN이라고 불리는 독자적인 식별 번호도 도입했다. ASIN는 서적의 ISBN에 상당하는 것으로, 아마존이 취급하는 서적 이외의 상품을 식별하기 위해 이용되고 있다. 사실 아마존은 유저의 공급하는 데이터를 적극적으로 수중에 넣어, 독자적으로 확장했던 것이다. 이것과 같은 것을 맵퀘스트가 했다면 어떻게 됐을까. 유저가 지도와 경로 정보로 코멘트를 더해 겹겹이 부가가치를 더할 수 있다면 같은 기초 데이터를 손에 넣는 것만으로, 타사가 이 시장에 참가할 수 없었을 것이다. 최근 등장한 구글 맵스는 애플리케이션 벤더와 데이터 공급자의 경쟁을 실시간으로 관찰할 수 있는 장소가 되고 있다. 구글의 경량 프로그래밍 모델을 이용하고, 서드파티가 다양한 부가가치 서비스를 낳고 있지만, 이런 서비스는 구글 맵스와 인터넷의 다양한 데이터 소스를 조합한 매쉬업의 형태를 취하고 있다. 폴 래이드마처의 하우징맵스닷컴(housingmaps.com)은 구글 맵스와 크래이그리스트의 임대 아파트/판매처 정보를 조합한 인터랙티브인 주택 검색 툴이다. 이것은 구글 맵스를 이용한 매쉬업의 걸출한 예라고 할 수 있다. 현재 이런 매쉬업의 대부분은 기업가들의 눈길을 받고 있다. 적어도 일부의 개발자의 사이에서 구글은 벌써 데이터 소스의 자리를 내브텍으로부터 빼앗아 가장 인기가 있는 중개 서비스가 되고 있다. 향후 몇 년간은 데이터 공급자와 애플리케이션 벤더 사이에서는 경쟁이 전개될 것이다. 웹 2.0 애플리케이션을 개발하기 위해서는 특정 데이터가 극히 중요한 역할을 완수하는 것을 양방이 이해하게 되기 때문이다. 코어 데이터를 둘러싼 싸움은 벌써 시작됐다. 이런 데이터의 예로는 위치 정보, 아이덴티티(개인 식별) 정보, 공공 행사의 일정, 제품의 식별 번호, 이름 공간 등이 있다. 작성에 고액의 자금이 필요한 데이터를 소유하고 있는 기업은 그 데이터의 유일한 공급원으로서 인텔 인사이드형의 비즈니스를 실시할 수 있을 것이다. 그렇지 않은 경우는 최초로 주요한 대중의 유저를 확보해, 그 데이터를 시스템 서비스로 전환할 수 있던 기업이 시장을 억제한다. 아이덴티티 정보의 분야에서는 페이팔(PayPal), 아마존의 원클릭(1-click), 많은 유저를 가지는 커뮤니케이션 시스템 등이 네트워크 규모의 ID 데이터베이스를 구축할 때의 라이벌이 될 것이다. 구글은 휴대 전화 번호를 지메일의 어카운트 인증에 이용하는 시도를 시작했다. 이것은 전화 시스템을 적극적으로 채용해, 독자적으로 확장하는 첫 걸음이 될지도 모른다. 한편, Sxip와 같은 신생 기업은 ‘제휴 아이덴티티(federated identity)’의 가능성을 모색하고 있다. Sxip가 목표로 하고 있는 것은 ‘분산형 원클릭’과 같은 구조를 만들어, 웹 2.0형의 아이덴티티 하부조직을 구축하는 것이다. 캘린더의 분야에서는 EVDB가 위키형의 아키텍처를 사용하고, 세계 최대의 정보 공유 캘린더를 구축하려고 하고 있다. 결정적인 성공을 거둔 신생 기업이나 실체는 아직 없지만, 이런 분야의 표준과 솔루션은 특정의 데이터를 인터넷 운영체제의 신뢰할 수 있는 하부조직으로 바꿔 차세대 애플리케이션의 등장을 가능하게 할 것이다. 데이터에 관해서는 프라이버시와 저작권 문제도 언급해 두지 않으면 안 된다. 초기의 웹 애플리케이션은 저작권을 너무 엄밀하게는 행사해 오지 않았다. 예를 들어, 아마존은 사이트에 투고되는 리뷰의 권리가 자사에 귀속한다고 주장하고 있지만, 그 권리를 실제로 행사하지 않고 있다. 그러나 기업은 데이터 관리가 경쟁 우위의 원천이 되는 것을 인식하고 있으므로, 향후는 데이터 관리가 지금보다 어렵게 행해지게 될지도 모른다. 소프트웨어의 융성이 무료 소프트웨어 운동을 가져온 것처럼, 데이터베이스의 융성에 의해서 향후 10년 이내에 프리 데이터 운동이 일어나게 될 것이다. 반동의 조짐은 벌써 나타나고 있다. 위키피디어나 크리에이티브 커먼(Creative Commons) 등의 오픈 데이터 프로젝트, 사이트 표시를 사용자가 할 수 있는 Greasemonkey 등의 소프트웨어 프로젝트가 그 일례다. @ 이 기사는 2005년 9월 30일에 O'Reilly Network로 공개된 것이다 |
[심층진단 포털을 말한다 - 2] 검색, 세상을 여는 새로운 창 | |||||||||||||||||||||||||||||||
정진호기자 jhjung@inews24.com 2006년 01월 06일 | |||||||||||||||||||||||||||||||
이 검색 비즈니스가 기업, 더 나아가 21세기 디지털 정보시대에 국가 경쟁력의 지표가 되고 있다. 모든 국민이 양질의 정보를 빠르게 검색, 습득해서 실생활에 활용할 수만 있다면 정보화 사회에서도 앞서 갈 수 있다는 논리다. 검색이 사회의 경쟁력을 한 차원 업그레이드시킬 수 있다는 것이다. 세계에서 가장 우수한 검색엔진이라고 평가받는 구글이 지난해 받은 '찬사와 두려움의 시선'을 놓고 보면 이 말이 현실로 실현될 가능성이 적지 않다. 또한, 구글과 자주 비교되는 국내 검색포털 1위인 네이버가 지난해 보여준 가능성은 우리에게 한국형 토종 검색모델의 세계화에 대한 가능성과 그 고민을 동시에 던져주고 있다. 이제 인터넷 포털 사이트들은 자신들 이름 앞에 '검색'이라는 꼬리표를 마치 훈장만큼이나 자랑스러워한다. 포털은 '검색' 없이는 그 존재의 의미를 상실할 정도가 되어 버렸다. 검색 없는 포털은 상상할 수 없고 포털 없는 검색도 마찬가지다. 그럼, 초창기 인터넷이 등장했을 당시, 단순히 웹 상의 정보를 크로링(Crawling)해서 결과를 보여주는 인프라 서비스 측면에서 접근했던 검색에 그동안 어떤 일이 일어났길래, 검색이 국가 경쟁력을 좌우한다고 하는 걸까. 얼마 전까지만 해도 검색을 버리고 포털만을 외치던 이들 기업들이 검색의 중요성을 새삼 깨닫고 있는 이유는 과연 뭘까. 아마도 전 세계적으로 '검색패권' 전쟁이 일고 있는 이유도 여기에 있을 것이다. ◆ 검색, 세상을 여는 새로운 창 검색을 "세상과 연결해 주는 창"이라고들 한다. 오늘날 웹에서 검색 없이 유용한 정보를 찾기는 사실상 불가능하다. 그럼, 왜 검색이 이렇게 핫 이슈가 되었을까. 검색전문서비스 업체인 첫눈의 신중호 기술이사는 한 마디로 "e세상에서 찾아야 할 것들이 너무 많아졌기 때문"이라고 진단한다. 2002년 "매년 반도체의 집적도는 2배씩 늘어난다"는 일명 '황의 법칙'으로 '무어의 법칙'을 무색케 만들고 있는 황창규 삼성전자 반도체 총괄 사장의 말을 근거로 유추하면 "스토리지 가격이 절반으로 줄어드는 데 걸리는 시간은 2년 이하로 줄어든다. 우리가 검색해야 할 대상은 웹 상의 데이터에 비례하고 이 데이터를 저장할 공간은 날이 갈수록 싸지고 있다. 시간이 갈수록 저절로 검색이 중요해질 수밖에 없다. 실례로, 지난 2002년 미국 전역의 PC에 담겨져 있는 데이터의 양은 5엑사바이트(Exabyte)로 미국 국회 도서관 50만개에 해당하는 정보의 양과 같다는 추정치가 있다. 7천 300만권의 장서를 보유한 세계에서 가장 큰 도서관, 그것도 50만개를 합쳐 놓은 도서관 안에서 내가 원하는 책 한 권을 찾으려면 어떻게 해야 할까. 자칫 발 품을 팔아서는 찾겠다고 나섰다가는 영영 돌아오지 못하는 미아가 되기 십상이다. 이보다는 우수한 검색엔진 앞에 앉아 내가 원하는 정보가 어디에 있는지 한번에 검색해 해 보는 편이 더 낫지 않을까 싶다. 전 세계적으로는 2001년 미 뉴욕 911 테러 사건을 계기로 한 세계 질서의 재편, 미국의 이라크 침공, 유가 상승, 북한 핵문제, 금융자본의 팽창과 아시아 이동, 세계적 양극화 현상 등 어딘지 모르고 질주하는 세상 때문에 세상 만사 정보를 찾아주는 검색이 더욱 빛을 발하고 있다는 해석도 있다. 그러나, 무엇보다 오늘날 검색이 이처럼 뜨거운 이슈로 등장한 배경은 검색이 지난 2∼3년 동안 굶주린 닷컴 기업들의 배를 채워주는 데 경이적인(?) 능력을 보여줬기 때문이다. 검색은 수많은 웹 상의 정보를 원하는 사람들에게 매개해 주고 여기에 광고를 끼워 넣는 온라인 중개업으로 완전히 자리를 잡았다는 사실이다. 이로 인해, 국내 검색광고 시장은 올해 3천 200억원을 시작으로 2006년 5천 450억원, 2007년 7천 530억원 수준으로 매년 증가하고, 2008년 9천억원을 넘어설 전망이다. 지난해 미국의 경우 검색광고가 온라인 광고 시장에서 차지하는 비중이 50%을 돌파하고 중국 역시 작년 1천 900억원 대비 올해 2∼3배 가까이 시장이 성장할 것으로 예상되고 있다. 최근 인터넷 비즈니스에서 가장 큰 시장성장률을 기록하고 있는 것이 바로 검색이다. 시가총액 100조원에 달하는 구글의 성장속도는 마이크로소프트(MS) 등 과거 어떤 IT 기업이 세워놓은 그 것과도 비교할 수조차 없을 정도로 빠르다. 그러나, 95년을 전후해 탄생한 초기 검색이 오늘날 이 같은 수익을 창출해 낼 수 있을 것이라고는 아무도 상상하지 못했다. 그럼, 여기서 잠깐 해외 검색엔진들의 발자취를 한번 들여다보자. ◆ 세계 검색사와 현재적 의미 알타비스타, 익사이트(96년 상장 성공), 구글, 라이코스 등 해외 유명 웹 검색 서비스를 비롯해 개인 홈페이지에서 출발한 야후의 디렉토리 검색 등은 초기엔 웹에 있는 정보를 잘 찾아보고 안내해 주자는 취지에 초점이 맞춰져 있었다. 이후 2∼3년 동안 사용자수는 늘었지만 돈을 벌지는 못했다. 이 과정에서 98년과 99년 사이 알타비스타가 컴팩에 인수되고, 라이코스가 테라(당시 테라는 라이코스를 12조원라는 엄청난 금액에 인수한다)에 인수됐다. 훗날에 호사가들의 이야기지만 당시엔 구글까지도 회사를 매각하기 직전까지 갔을 정도로 검색 업체들은 혹독한 암흑기를 거친다. 이후 이들은 돈을 벌기 위해 메일이나 홈페이지, 메신저 등으로 포털화를 추진하고 심지어 엔터테인먼트 포털이라는 포장으로 부가서비스로 눈을 돌리지만 쇠퇴의 길을 걷는다. ![]() 그러나, 고투닷컴(오버추어)의 키워드 검색광고 모델이 도입되고, 구글이 AOL과 ASP 서비스로 손을 잡으면서 검색은 2002년 서서히 성장가도를 달리기 시작한다. 이 무렵 야후와 MS(언더도그)가 검색의 중요성을 인식, 2003년 자체 엔진을 사용하거나 개발에 착수한다. 이때까지 야후는 오픈텍스트, 알타비스트, 구글 등의 검색엔진을 ASP 형태로 사용했다. 이처럼 검색은 단순히 일개 회사가 서비스하는 검색, 그 자체만을 의미하기엔 너무 커버렸다. 검색은 한 국가의 IT 기술발전의 척도이자, 지구 반대편에서 도대체 무슨 일이 일어나고 있으며 내일 아침 우리 식탁에 어떤 영향을 미칠지 미리 깨우쳐 해 주는 세상과 소통하는 창이자 도구이다. 이것이 포털이 검색을 외치는 이유다. 그럼, 대한민국 검색 창은 이런 역할을 얼마나 충실히 하고 있을까. ![]() ◆ 한국적 검색이 글로벌 검색 2006년 새해를 맞은 1월 5일 분당구 정자동 벤처타운 12층. 20여명 남짓한 NHN 네이버 지식서비스 유닛 팀원들이 사용자들이 올린 질문과 답변을 관리하느라 손가락 움직임이 빨라진다. 하루동안 지식iN 서비스에 올라오는 사용자들의 질문 건수는 약 3만 5천여건. 이에 대한 답변도 5만 5천건 정도가 붙는다. 또, 답변에 대한 불만 제기는 8천건. 주로 상업성 답변이나 음란성 문제를 제기하는 신고가 많다. 일정기간 질문에 답변이 붙지 않으면 이 질문은 자동으로 사라진다.
한국 시장에서 구글 못지 않은 검색 열풍을 일으키고 있는 NHN의 네이버. 지난 2002년 10월 문을 연 지식iN 서비스는 통합검색과 더불어 네이버가 야후를 제치고 대한민국 검색포털 0순위로 올라서는 데 일조를 해오고 있다. 최미정 네이버 지식서비스 유닛 팀장은 "하루 지식iN 서비스 방문자수는 330만명에 달하고 하루 5∼7천명의 회원들이 유입되고 있다"며 "콘텐츠의 퀄리티를 높이기 위해 DB 관리에 역점을 두고 있다"고 설명했다. 네이버는 어떻게 국내에서 구글 못지 않은 검색 바람을 몰고 온 것일까. 첫눈 신중호 이사는 "한국 소비자가 원하는 것을 구글이 아니라 네이버가 주고 있기 때문"이라고 단언한다. 국내 네티즌들의 욕구를 구글이 3% 정도 충족시켜주고 네이버가 70%쯤 주고 있다는 것이다. 현재 국내에서 네이버와 구글의 검색 쿼리 비율은 70대 3이다. 전 세계에서 100억건의 웹 데이터를 보유하고 있는 것으로 알려진 구글(80억건 이후 미발표)이 수억 건의 데이터밖에 갖고 있지 않는 국내 토종 검색 업체와 견주어 겨우 3%정도의 서비스만을 주지 못하고 있다니, 도대체 무슨 소리인가. 이유는 간단하면서도 복잡하다. 순수 검색엔진으로 성장해 온 구글의 경쟁력은 웹, 그 자체에 있다는 게 검색 전문가들의 공통된 의견이다. 웹에 있는 좋은 정보가 많아지면 많아질수록 구글의 경쟁력은 높아진다. 반면, 네이버 등 국내 토종 업체들의 경우 웹보다는 사용자들이 생산하는 정보(DB)에 경쟁력이 있다. 네이버의 지식iN은 사용자 경험을 검색데이터 생산과 연계해 놓은 UCC(사용자콘텐츠생산) 플랫폼의 전형이다. 쟝르는 약간 다르지만 다음의 카페나 네이트닷컴의 싸이월드도 역시 마찬가지다. 역사적으로 초창기 엄청난 양의 영문 웹 문서를 찾아야 했던 해외 검색업체와는 달리 토종 검색엔진은 찾아야할 정보(DB) 축적이 더 시급한 과제였다는 논리이다. 97년 당시 국내 웹사이트 숫자는 5천여개에 불과했다. 이 당시 국내 시장에 진출한 야후가 4개월만에 1위로 올라선 이유이기도 하다. 기술 경쟁을 벌이기에 경기장이 제 구실을 하지 못했다는 것이다. 따라서, 네이버는 Q&A 방식의 지식iN과 블로그 등 사용자 경험을 빠른 시간 안에 축적하기 위해 주력해왔고 아울러 여타 업체와의 제휴를 통해 양질의 전문DB 수집에 몰입, 이를 발 빠르게 '검색'과 연계한다. 구글과 네이버의 차이점 또 하나. 최미정 팀장은 구글과 네이버가 다른 점에 대해 한마디로 "성의가 있다와 없다의 차이"라고 잘라 말한다. 식탁 위에서 서양 사람들은 포크와 칼이라는 합리성을 추구하지만 동양 사람은 숟가락과 젓가락이라는 정성과 예의범절을 따진다. 엄청난 정보를 기술적인 검색을 통한 텍스트 위주로 보여주는 구글과 소량의 정보지만 가공하고 정제(마이닝)해서 보여주는 네이버의 서비스 중 국내 소비자들이 후자를 선호하고 있는 것이다. 그러나, 구글과 네이버의 다른 점만 있는 것은 아니다. 공통점도 있다. 구글과 네이버의 공통점은 먹고살기 힘든 검색 시장 침체기에 검색에 계속 투자하고 집중해 왔다는 사실이다. 구글은 경쟁사들이 98∼99년 매각을 통해 포털로 옷을 갈아 있는 동안 검색만을 고집해 결국 승리했다. 네이버도 뉴스 등 콘텐츠 검색연동, 통합검색, 지식iN, 블로그 검색 등 남 보다 한발 앞선 혁신 서비스 등을 잇따라 내놓는다.(네이버도 2000년 한게임과 합병을 결행하지만 당시 조직운영이 현명한 결정이라고 증명된 셈이다.) 두 회사 모두 어려운 시기에도 끊임없이 검색 서비스를 업그레이드하고 혁신 서비스를 붙여온 것이 오늘날 성공의 밑거름이 됐다. 시장 호황기에는 누구나 잘 하지만 불황기 때 어떤 노력을 취하느냐가 그 기업의 미래를 결정해 준다는 말을 증명해 주고 있는 셈이다. 두 회사의 또 하나의 공통점은 아킬레스건을 갖고 있다는 점이다. 구글은 그 검색엔진의 확장성과 우수성으로 인해 무차별적인 개인 프라이버시를 침해한다는 비난을 받고 있다. 네이버는 순수한 검색결과를 보여주기보다는 사용자나 다른 저작권자가 생산한 정보를 가공해 보여주고 돈을 번다는 공격을 받고 있다. ◆CDMA와 같은 한국형 검색패러다임 형성이 필요하다 구글은 현 웹상의 정보나 플랫폼, 검색기술 및 광고 모두 분야에서 "가야할 길의 5% 도 못 왔다"고 말한다. 네이버의 지식iN과 블로그 검색 같은 UCC 기반의 토종 검색전략이 세계에서 통할 수 있을까. 이 문제에 대한 답을 현 시점에서 '그렇다', '아니다'라고 잘라 말하기는 매우 어렵다. 그렇게 만들기 위해 지금부터라도 철저한 전략이 필요하다는 대답이 더 어울린 것 같다. "과연 중국과 일본의 사용자들이 네이버에게 자신들이 생산한 콘텐츠를 국내 사용자들처럼 그렇게 헌신적으로 줄 것인가?" 라는 질문에 대해서 업계 전문가들 사이에서 "아닐 것"이라는 답이 많다. 웹에 경쟁력이 있는 구글은 그대로 들고 나갈 수 있지만 네이버는 어렵다는 분석이 주류다. 그러나, 현지인의 입맛에 맞는 콘텐츠를 먼저 주고 이를 기반으로 커뮤니티나 검색 등으로 연계, 변형해 발전해 나간다면..."아마, 시간은 걸려도..."정도로 고개를 갸우뚱거린다. CDMA 예를 들어보자. 10년 전 우여곡절 끝에 국내에서 상용화를 시작한 CDMA(코드분할접속방식) 이동통신 표준은 당시 우리나라가 최초였다. 당시 CDMA 기술이 GSM/TDMA(시분할접속방식)이 지배하고 있던 세계에서 통할 수 있을까라는 우려가 지배적이었다. 그러나, 휴대폰 사업 포기 직전까지 갔던 삼성전자 애니콜은 이 CDMA 표준선택 덕분에 국내 시장에서 모토로라를 제압하는 데 성공한다. 이후 유럽 등 세계 시장으로 나아갈 수 있는 기초 체력을 내수를 통해 쌓는다. 이때 삼성전자가 선택한 전략이 고가 브랜드 전략과 GSM/CDMA 양수겸장이었다. 내수 및 미국 등지의 소량의 CDMA 시장과 유럽의 GSM 시장을 동시에 공략한다. 세계 시장에서 통할 수 있는 GSM표준 단말기 개발에 주력했다. 이후 CDMA 시장이 확대되고 GSM 기술력도 발전하면서 시너지를 내기 시작했다. 당시 4억 4천만 달러에 불과하던 단말기 수출은 지난해 246억달러를 기록했다. 토종 검색업체들도 세계 시장 진출에 있어 지금 가지고 있는 독창적인 장점을 더 발전시키고 활용하는 지혜를 발휘해야 할 때라는 것이다. 최근 구글과 야후가 보여준 행보는 우리 검색업체들에게 타산지석이 될 수 있다. 구글과 야후가 이미 한국형 토종 업체들의 지식검색 서비스를 가져다 글로벌화 시키고 있다는 것은 눈 여겨 볼 문제다. 작년 12월 8일 미국 야후는 네티즌들이 묻고 답하는 지식검색 서비스 '야후 앤서스(Yahoo! Answers)' 베타 버전을 공개했다. '야후 앤서스'는 네티즌들이 질문하면 이에 대해 다른 네티즌들이 답을 달아주어 검색만으로는 찾을 수 없는 복잡한 문제에 대한 답변을 얻을 수 있도록 서비스로 국내에서 선보이고 있는 지식검색과 유사하다. 야후의 지식검색 따라하기는 지난 2003년 9월로 거슬러 올라간다. 당시, 미국, 중국, 일본, 싱가포르, 영국, 독일, 브라질, 호주 등의 서비스 기획자와 엔지니어들이 야후코리아에 모였다. 이 회의에서 가장 적극적인 관심을 표방한 호주의 경우 컨퍼런스가 끝난 후 10일 동안에 지식검색 프로그램 개발에 대한 모든 소스를 엔지니어가 습득해 갔으며 해외 진출을 위해 엔지니어링 파트에서 진행을 도와 일본과 대만에서 지식 검색을 오픈할 수 있도록 지원했다. 현재 대만은 '知識+(지식플러스)'라는 명칭으로 정식 서비스하고 있으며 야후!일본은 ‘지혜봉투’(http://knowledge.yahoo.co.jp) 라는 명칭으로 지난 해 4월 베타에 이어 10월부터 정식 서비스하고 있다. 구글 역시, 구글 앤서스로 이 시장에 관심을 보이기 시작했다. 이러한 현상은 우리 국내 업체들에게 위기이자 기회다. 한국 검색시장은 인터넷 인프라나 사용자들의 교육 수준에 비춰볼 때 앞선 선진 시장이다. 이를 바당으로 한국형 검색패러다임을 만들어 가는 전략이 필요하다는 지적도 높다. 예를 들어, 블로그나 게시판 검색 등 해외 검색업체들이 낮설고 소홀히 하는 분야를 강화한다거나, 이미 웹2.0를 지나 웹2.5로 진화해 있는 국내 웹 기술을 기반으로 검색을 연계, 발전시키면 글로벌에서도 승산이 있다는 지적이다. 검색은 소위 비인칭, 무자산 서비스이라고 한다. 게임이나 커뮤니티와는 달리 개인 혼자 쓰고 서비스를 전환하거나 옮기는 데 돈이 들지 않는다. 국내 사용자 1인당 사용하는 중복 검색사이트는 3.5개 정도다. 구글이 최고라고 구글만 쓰는 사용자는 없다. 사용자에게 좋은 정보(DB)를 주고 사람을 향하는 곳이 바로 21세기 검색의 지존이다.
|
스스로 진화하는「인터넷 검색 기술」 데이터베이스, 자연어 처리, 인공 지능 기반 기술 등장…인공 지능 기반 기술 다시 부각 김효정 기자 ( ZDNet Korea ) 2006/01/10 |
|
최근 사용자의 마음을 사로잡기 위해 인터넷 포털에서는 다양한 신규 검색 서비스들을 선보이고 있다. 검색 서비스의 궁극적인 목표는 시류에 맞는 질 좋은 정보를 찾아 주는 것. 검색 기술의 발전은 이 같은 검색 서비스의 이상향을 완성해 줄 것이다. 초기 웹 검색에서부터 지식 검색, 데스트톱 검색, 그리고 오늘날의 멀티미디어 검색까지 검색 서비스에 따라 검색 기술은 꾸준히 발전해 왔다. 이러한 검색엔진에서 제공하는 검색 서비스에는 어떤 기술들이 적용될까? 검색엔진의 기반 기술은 ‘응용 성격’이 강하며 데이터베이스, 자연어 처리, 인공 지능 등 크게 3가지 관점에서 구분해 볼 수 있다. 3가지 검색 기반 기술 - 데이터베이스, 자연어 처리, 인공 지능 첫번째는 데이터베이스에 기반을 둔 검색엔진 기술이다. 이는 DBMS에 적용되는 기술로 초기 검색엔진 기술은 비정형화된 데이터(텍스트)를 DBMS에서 색인 및 추출하도록 한 것에서 시작된다. 즉, 초창기 검색엔진은 DBMS와 크게 다를 게 없으며, 이 당시 국내 대표적인 검색엔진인 까치네는 물론, 이준호 교수가 개발한 네이버 역시 데이터베이스를 기반 기술로 하는 검색엔진이다. 이러한 국내 검색엔진들은 DBMS에서 전문 검색(Full Text Retrieval) 문제를 해결하기 위해 '엔그램(N-GRAM)'이라는 색인 방식을 사용했다. 국내의 경우 초기에는 검색할 문서수가 많지 않아 두 글자를 패턴으로 하는 바이그램(Bi-GRAM)을 주로 사용했다. 예를 들어 검색어로 ‘인천국제공항’을 입력하면 ‘인천’, ‘천국’, ‘국제’, ‘제공’, ‘공항’ 등 두 글자로 된 모든 문장을 찾는 방식이다. 엔그램 방식이 처음 나왔을 때는 그동안 한국어 검색에서 문제가 됐던 조사나 띄어쓰기 문제를 해결해 주는 강력한 기능을 발휘했으나, 문서의 양이 많아지면서 불필요하게 많은 검색 결과를 보여준다는 단점이 드러났다. 지금 생각해 보면 원시적이며 무식한 방식이지만, 검색 재현율(recall)이 좋다는 장점은 무시할 수 없다. 두번째는 자연어 처리에 기반을 둔 기술이다. 여기서는 형태소 분석기를 사용함으로써 데이터베이스에 기반 기술을 둔 검색엔진이 갖는 과도한 검색의 문제를 해결할 수 있었다. 다시 ‘인천국제공항’의 예를 들면, ‘인천’, ‘국제’, ‘공항’이란 단어만 있으면 관련 정보를 찾아주게 된 것이다. 기존의 재현율보다는 정확율(precision)에 초점을 맞춘 것이다. 마지막은 인공 지능에 기반을 둔 기술이다. 현재까지 검색엔진 기술 분야의 가장 최근 기술로 ‘적합도 랭킹’을 내세웠다. 검색 결과 10만 건이 넘는 문서가 나왔어도 실제로 사용자들이 보는 문서는 10~20건 정도에 그친다. 때문에 사용자들에게 적합한 문서를 찾아주는 데 주력했고, 인공 지능 기술을 이용해 도큐먼트와 사용자 쿼리 간 유사도와 적합도를 계산해서 더욱 정확한 결과를 상위에 랭크시켜주는 기술이다. 서비스를 제외한 검색 기술만을 가지고 검색 기능을 따지려면 이 3가지 기술이 잘 조화돼 있는지를 보면 된다. 재현율과 정확율, 그리고 적합성은 오늘날 검색엔진들이 갖춰야 할 기본 조건이다. 데이터베이스, 자연어 처리는 살고 인공 지능은 죽다 국내 검색의 역사는 지난 1995년 전후로 태동기를 맞는다. 초기 웹 검색은 코시크, 까치네, 미스다찾니 등 대학파와 심마니(한컴), 정보탐정(KT) 등 기업형으로 출발했다. 앞서 언급했듯이 초기의 웹 검색은 엔그램 방식과 웹로봇을 통해 100만 건 이하의 소량의 문서를 바탕으로 이루어졌다. 1997년 야후의 국내 진출로 디렉토리 검색이 등장했다. 이 때 국내의 사이트 수는 5천여 개였으며, 디렉토리 검색은 초기 문서수가 적고 검색 기술력이 빈약했을 때 사람의 노동력을 써서 문서와 키워드를 카테고리별로 찾기 위한 것이었다. 자동 인덱스 방식이 아닌 수동 검색 방식이기 때문에 기술적으로 뛰어난 것은 아니다. 초기 국내 검색 시장에서는 데이터베이스 기반 기술인 엔그램 방식과 수동 방식을 모두 사용했다. 이어 라이코스와 다음이 약진하면서 포털화가 시작됐으며, 1998년에는 야후와 토종 검색 엔진 네이버가 양대 산맥을 이루었다. 1998년 말 후발 업체인 엠파스가 ‘자연어 검색’을 표방하면서 신선한 충격을 일으켰다. 기존 단어만으로 문서를 찾는 것이 아니라 문장을 가지고도 정보를 찾을 수 있게 됐는데, 문장으로 검색을 하려면 형태소 분석이 필요한 자연어 처리 기반 기술이 필요했다. 이 때 그 유명한 ‘야후에서 못 찾으면 엠파스…’라는 광고문구가 등장했다. 2000년 이후, 국내 검색 시장은 성장기를 맞는다. 뉴스 연동, 통합 검색과 더불어 네이버의 지식 검색 서비스 ‘지식인’이 등장하며 검색의 진화가 이루어졌다. 네이버 성장의 한 축을 담당한 지식 검색은 인공 지능(AI) 기반 기술에서 잉태됐다. 그렇지만 엄밀히 말해 AI 기술이 적용되지는 못했다. 당시로서는 그 정도의 기술력을 확보하기가 어려웠고, 네이버는 인공 지능 기술을 버리고 과감하게 그 개념만을 도입한 지식인 서비스를 택했다(비슷한 지식 검색으로 디비딕이 먼저 나왔으나 여기서는 생략하겠다). 인공 지능의 개념만을 도입해서 시스템이 아닌 사용자가 답변을 달아주는 방식의 지식인 서비스는 사용자의 욕구를 충족시켜 줬으며, 네이버의 선택은 성공했다. 그렇지만 지식인의 대성공은 결과적으로 국내 검색 시장에서 AI 기반 기술을 퇴화시키는 데에도 한 몫을 했다. 또한 네이버 고성장의 다른 한 축, 통합 검색은 데이터베이스의 확장으로 인해 사용자 서비스 측면 강화 차원에서 각종 서비스들을 한눈에 볼 수 있도록 만든 것이다. 이는 웹로봇의 발달과 더불어 DB 확장이 있었기에 가능한 서비스다. 고성장 시기의 검색 시장, 기술 발전은 글쎄... 2002년 이후 국내 검색 시장은 매출이 급격히 증가하면서 네이버와 다음이 견실한 캐시카우(Cash-cow)를 형성하기 시작한다. 확실한 선두 그룹이 정해지기 시작하면서 업체 간 경쟁도 심화됐다. 이미 시장은 성숙했고 검색 서비스 특성상 스위칭 코스트(전환 비용)가 발생하지 않으므로, 서비스만 뛰어나다면 언제든지 선두 자리에 설 수 있기 때문이다. 이 틈을 뚫고 지난해 등장한 엠파스의 열린 검색은 업체 간 경쟁의 단면을 보여주는 일례다. 타 검색엔진의 블로그나 게시판 문서를 가져와서 보여주는 것에 대해서 업계에서는 도덕적으로 부당하다는 입장과 공정한 서비스의 한 형태라는 입장이 공존한다. 논란은 지금도 계속되고 있지만 검색 기술 측면에서는 반길 만한 일이다. 엠파스의 열린 검색은 타 검색엔진의 데이터를 웹크롤링(웹로봇으로 문서를 찾아오는 것)해서, 이 정보를 자사의 검색 기술로 색인해 사용자에게 보여주고 있다. 서비스 측면이 아닌 검색 기술로 승부를 건 것이다. 코난테크놀로지의 한 관계자는 “엠파스의 열린 검색은 흔히들 말하는 메타 검색과 다른 면이 있다. 그 기준은 자체 색인 DB 존재 여부에 따라 색인 DB가 존재하면 열린 검색이고, 그렇지 않으면 메타 검색이라고 본다”며 “엠파스가 타사의 DB를 자체 검색엔진에서 색인했기 때문에 문제가 될 수는 있으나, 쟁점의 중앙에 기술 이슈가 등장한 것은 나쁘지 않다”고 말했다. 검색 기술은 ‘스스로 진화한다’ 지난해부터는 멀티미디어와 데스크톱 검색 등의 서비스가 등장해 올해는 업체 간 더욱 치열한 서비스 경쟁이 예상된다. 최근 PC 사양이 좋아지고 각 개인의 컴퓨터에 메일, 오피스 프로그램 등 각종 자료가 넘쳐나자 문서 필터링을 위해 데스크톱 검색 서비스가 등장한 것이다. 데스크톱 검색 기술의 핵심은 ‘경량화’ 기술로, 무거운 검색엔진을 자원 활용에 대한 튜닝을 통해 PC에서 돌아가게끔 하는 기술이 적용됐다. 이 기술은 사용자들이 PC상에서 작업하는 데 불편함이 없도록 하기 위해 리소스에 지장을 초래해서는 안 되며, 이를 만족시키기 위해 아웃룩 등의 프로그램과의 연동 같은 다양한 기술이 추가 개발되고 있다. 또한 추후 데스크톱이 KMS(지식관리시스템)와도 연동될 가능성을 열어주고 있다. 멀티미디어 검색은 메타데이터 검색과 내용 기반 검색의 두 가지로 나뉜다. 전자는 디스크립션 검색으로 동영상이나 이미지에 표시된 텍스트 검색 수준이고, 후자는 실제로 이미지를 분석해 그 내용으로 색인을 하는 기술이다. 물론 후자가 진정한 멀티미디어 검색이라고 할 수 있지만, 현재 포털에서 제공하는 멀티미디어 검색은 아직 전자에 가깝다. 오디오는 음파를 분석하고, 이미지는 이미지 디스크립터를 검색하는 ‘특징 추출’ 기술을 사용하는데 이는 자연어 처리 기반 기술이라 할 수 있다. 최근 첫눈이 자체 개발한 검색 기술 ‘스노우랭크’는 인공 지능 기반 기술의 적합도 랭킹에 가까운 기술이다. ‘중복된 정보가 가치가 있다’는 명제 하에서 빈도수가 잦은 정보를 상위에 랭크해 주고 있다. 얼마나 많은 사람이 봤는지 클릭 수에 따른 엠파스의 유저 랭크나 문서 고유의 가중치를 두는 구글의 방식도 이와 유사하다. 이러한 면에서 인공 지능 기반 기술에서 강조된 랭킹 기술이 다시 부각될 것으로 보인다. 지금까지 형성된 엄청난 분량의 이미지, 문서, 기사 등의 DB를 시스템적으로 재정렬하고 가장 적합한 검색 결과를 상위에 랭크시켜야 하기 때문이다. 검색 서비스와 기술은 시대의 변화에 따라서 스스로 진화한다. 결국은 가장 편리하고 효율적인 서비스를 제공하는 검색엔진 기술과 서비스가 살아남을 것이다. @ |
[웹2.0] 플랫폼으로서의 웹 Tim O'Reilly 2006/01/10 ![]() |
|
닷컴의 붕괴는 웹2.0 탄생의 필연? 2001년의 닷 컴 버블의 붕괴는 웹에 있어서 하나의 전환점이 되었다.「웹은 과대하게 선전되고 있었다」라고 많은 사람이 결론을 내렸지만 버블과 그 후의 도태는 모든 기술 혁명에 공통되는 특징인 것처럼 생각된다. 일반적으로 도태는 신생 기술이 지금까지의 주역을 대신할 단계에 도달한 것을 나타내 보이고 있다. 전자는 붐을 쫓아갔지만 진짜 실력을 갖춘 기업이 성공을 거둔다. 이들이 서로 분리되는 것도 이해가 될 것이다. 「웹2.0」이라는 개념은 오라일리(O'Reilly)와 미디어라이브 인터내셔널(MediaLive International)에 의한 브레인 스토밍(brainstorming)에서 부터 탄생했다. 웹의 개척자이며, 현재는 오라일리의 부사장을 맡고 있는 데일 도어티(Dale Dougherty)는 웹은 「붕괴」되기는커녕 전보다 중요한 존재가 되었다고 한다. 활발한 웹사이트 들이 놀라운 정도로 착실하게 태어나고 있다고 지적했다. 또 버블 붕괴에서 살아남은 기업에는 닷컴의 붕괴에 의해서 웹은 웹2.0과 같은 확실히 어떤 전환점을 맞이해야 할 것이 아닌가 하는 공통점이 있어 보인다. 이러한 생각을 기초로 우리는 웹2.0 컨퍼런스의 개최를 결의했다. 불과 1년 반 사이에 웹2.0은 완전히 뿌리를 내렸다. 이 말을 구글로 검색하면 950만 건 이상에 달한다. 그러나 웹2.0이 의미하는 것에 대해서 아직껏 다수의 상이한 의견 차이가 있다. 이것을 말뿐인 무의미한 마케팅 용어라는 사람도 있고, 새로운 사회의 통념으로 보는 사람도 있다. 이 논문의 목적은 웹2.0이 무엇을 의미하고 있는지를 명확하게 하는 것이다. 최초의 브레인 스토밍(brainstorming)에서는 구체적인 예를 들어 웹2.0의 개념을 잡았다.
<표 1> 웹1.0과 웹2.0의 비교 이 그 밖에도 다양한 예가 있다. 그러면 우리는 무엇을 가지고, 어느A 애플리케이션 또는 어프로치가 「웹1.0」이나 「웹2.0」에 속한다고 판단한 것일까(이 점을 분명히 하는 것이 우선시 되고 있다. 웹2.0이라는 문화의 전달자는 완전히 퍼져서 이 말의 진정한 의미를 이해하지 않고, 단순한 마케팅 용어로서 남용하는 기업이 증가하고 있기 때문이다. 게다가 이러한 유행어를 좋아하는 신생 기업의 대부분이 웹 2.0이라고는 도저히 부를 수 없다. 우리가 웹2.0의 예로서 이름을 든 앱스터(Napster)나 비트토런트(BitTorrent)는 엄밀하게는 웹 애플리케이션 조차 아니다). 우리는 웹1. 0의 성공 사례나 새롭게 등장한 흥미로운 애플리케이션에 주목하는 것으로 웹 2.0의 원칙을 이끌어내기로 했다. 웹2.0의 원칙 많은 중요한 개념처럼 웹2.0도 명확한 윤곽은 없고 그 외의 것을 끌어당기는 코어로서 존재한다. 그림 1에 웹2.0을 나타냈다. 이것은 웹2.0의 원칙과 실제의 세트로 정확히 태양계와 같이 이러한 원칙의 일부 또는 모든 것을 입증하고 있는 사이트가 다양한 거리로 코어와 결합되어 있다는 것을 알 수 있다.
그림 1은 오라일리 미디어의 「FOO Camp」컨퍼런스에서 진행되었던 브레인 스토밍(brainstorming) 세션에서 작성된 웹2.0의 「Meme 맵」이다. 스케치 단계의 것이지만 웹2.0의 코어로부터 다양한 아이디어가 태어나고 있는 것을 알 수 있다. 2004년 10월에 개최된 제1회 웹2.0 컨퍼런스의 개회 연설에서 존 베텔레(John Battelle)와 나는 이러한 원칙의 일부를 소개했다. 제1 원칙은 「플랫폼으로서의 웹」이었다. 그러나 이것은 웹1.0의 총아로 MS와의 격투의 끝에 진 냅스터가 내건 슬로건이기도 했다. 또 첫머리에서 웹1.0의 예로서 이름을 든 더블클릭(DoubleClick)과 아카마이(Akamai)도 웹을 플랫폼으로서 다룬 선구적인 기업이었다. 광고 서비스를 「웹 서비스」라고 생각하는 사람이 많지 않을지도 모르지만 광고 서비스는 광범위하게 배치된 첫 웹 서비스-최근의 용어를 사용하면 「매쉬 업」이었다. 모든 배너 광고는 2개의 웹 사이트가 밀접하게 협력해 통합된 페이지를 유저의 컴퓨터에 표시하는 형태로 나타난다. 아카마이도 네트워크를 플랫폼으로서 다루는 기업 중의 하나다. 아카마이는 스택의 한층 더 깊은 부분에서, 대역폭의 혼잡을 해소하기 위한 캐싱과 콘텐츠 전달 네트워크를 구축하고 있다. 그럼에도 불구하고 이 2개의 선구적 기업과 웹2.0 기업의 사이에는 명확한 차이가 있다. 후의 참가자들은 새로운 플랫폼을 보다 깊게 이해하는 것으로 같은 문제에 대해서 보다 효과적인 솔루션을 제공했다. 더블클릭과 아카마이는 웹2.0의 선구자였지만 웹2.0의 디자인 패턴을 도입하면 더 많은 가능성을 실현할 수 있다. 여기에서는 세 개의 사례를 파헤쳐 웹1.0과 웹2.0의 본질적인 차이를 알아보자 넷스케이프 vs 구글 넷스케이프가 웹1.0의 기수였다고 하면 구를이 웹2.0의 기수라는 것에 이의가 없을 것이다. 양 회사의 IPO는 각각의 시대를 상징하는 사건이기도 했다. 우선 양 회사와 그 포지션의 차이를 비교해 가자. 넷스케이프는 낡은 소프트웨어 패러다임(paradigm)의 관점으로부터, 「플랫폼으로서의 웹」을 구상했다. 넷스케이프의 가장 중요한 제품은 웹 브라우저와 데스크톱 애플리케이션이었다. 넷스케이프는 브라우저 시장에서의 우위를 이용해 고액의 서버 제품 시장을 확립하려고 했다. 넷스케이프는 콘텐츠와 애플리케이션을 브라우저에 표시하기 위한 표준을 지배하고 있었으므로 이론적으로는 MS가 PC시장에서 향수하고 있는 것과 같은 시장 지배력을 손에 넣을 수 있을 것이었다. 「말 없이 달리는 탈 것」이라고 하는 표현이, 마차를 즐겨 온 사람들에게 자동차를 친밀한 것과 느끼게 한 것처럼, 넷스케이프는 데스크톱을 대신하는 것으로 「웹 톱」을 추진했다. 이 웹 톱에 넷스케이프 서버를 구입한 기업이 전달하는 업데이트하는 애플릿을 싣는다는 것이 넷스케이프의 계획이었다. 그러나 웹 브라우저와 웹 서버는 상품화해, 가치는 「스택의 상류」, 즉 웹 플랫폼상에서 제공되는 서비스로 옮겨 버렸다. 넷스케이프와 대조적으로 구글은 네이티브의 웹 애플리케이션으로 탄생했다. 구글은 소프트웨어를 판매한 것도 패키지 소프트웨어를 개발한 적도 없다. 구글은 서비스를 제공해 고객은 직접적 또는 간접적으로 서비스에 대한 사용료를 지불한다. 구글에는 과거의 소프트웨어 업계를 상징하는 것은 아무것도 없다. 소프트웨어의 발표 계획은 없고 개선은 계속적으로 행해진다. 라이센스 공여도 없으며, 판매도 없고, 사용량이 있을 뿐이다. 고객의 환경에 맞추어 소프트웨어를 다양한 플랫폼에 이식할 필요도 없다. 대량의 상품 PC를 사용하고, 극히 확장성이 높은 시스템을 구축해 자가의 커스텀 애플리케이션과 유틸리티를 오픈 소스 OS 위에서 실행하는 것만으로 좋다. 구글에 필요한 것은 넷스케이프가 전혀 필요로 하지 않았던 능력이다. 그것은 데이터베이스 관리다. 구글은 단순한 소프트웨어 툴이 모아진 것이 아니라 매우 특수한 데이터베이스다. 데이터가 없으면 툴은 도움이 되지 않지만, 소프트웨어가 없으면, 데이터를 관리할 수 없다. 웹1.0시대에 귀중한 보물 된 소프트웨어 라이센스나 API 관리 방법은 구글의 비즈니스 모델에게는 들어맞지 않는다. 구글은 소프트웨어를 배포할 필요는 없고, 그것이 적절히 기능하도록 하면 좋기 때문이다. 실제, 데이터를 수집해, 관리하는 능력이 없으면, 이 소프트웨어는 어떤 도움도 되지 않는다. 소프트웨어의 가치는 그 소프트웨어가 관리하는 데이터의 규모와 다이너미즘에 비례한다. 구글의 서비스는 대량의 인터넷 서버로 구성된 시스템을 통해 제공되지만, 구글의 서비스는 서버는 아니다. 유저는 브라우저를 통해 구글의 서비스를 이용하지만, 구글의 서비스는 브라우저는 아니다. 구글의 기간 사업은 검색 서비스이지만 구글은 검색 결과에 표시되는 콘텐츠조차 소유하고 있지 않다. 통화가 발신자와 수신자의 전화기뿐만이 아니라, 그 사이의 네트워크가 일어나도록 구글의 서비스는 브라우저, 검색 엔진, 그리고 목적의 콘텐츠가 보존되고 있는 서버 사이에 생겨 구글은 유저와 온라인으로의 경험을 묶어, 중개하는 역할을 완수한다. 넷스케이프나 구글은 어느쪽이나 소프트웨어 기업이라고 부를 수 있지만, 넷스케이프가 로터스, MS, 오라클, SAP 등의 1980년대의 소프트웨어 혁명으로부터 태어난 기업과 같은 소프트웨어의 세계에 속했다면 구글은 eBay, 아마존, 냅스터, 그리고 물론 더블클릭과 아카마이 등의 인터넷 애플리케이션 기업과 같은 그룹에 속한다. 더블클릭 vs 오버추어/애드센스 구글과 같이 더블클릭도 인터넷 시대의 산물이다. 더블클릭은 서비스로서 소프트웨어의 힘을 이용해, 데이터 관리를 핵심 능력(코어 컨피턴스(competence))으로 한다. 그리고 이미 설명한 대로 더블클릭은 「웹 서비스」라는 호칭이 등장하기 오래 전부터 웹 서비스를 제공해 온 선구적 기업이기도 했다. 그러나 더블클릭의 비즈니스는 그 비즈니스 모델에 의해서 제한을 받고 있었다. 더블클릭의 비즈니스는 90년대의 개념( 「웹은 퍼블리싱이며, 참가는 아니다」, 「웹을 지배하고 있는 것은 소비자가 아니고, 광고주이다」, 「규모가 중요한/인터넷은 미디어매트릭스(MediaMetrix)등의 웹 광고 조사 회사에 의해 결정되는 상위의 웹 사이트에 의해서 독점되고 있다」등 )에 중심을 두었기 때문이다. 더블클릭은 자사의 웹 사이트에서 동사의 소프트웨어가 「2000사 이상 성공리에 도입」되었다고 자랑스럽게 선언했다. 이에 비해 야후!서치 마케팅(구 오버추어(Overture))과 구글의 애드센스(AdSense)는 각각 수십만의 광고주에게 광고 서비스를 이미 제공하고 있다. 오버추어와 구글이 성공한 것을 크리스 앤더슨(Chris Anderson)이 「롱 테일」이라고 부른 것-즉, 웹의 과반수를 차지하고 있는 작은 사이트가 총체로서 큰 힘을 낳는 것을 양 회사가 이해하고 있었기 때문에-과 같다. 더블클릭의 서비스는 정식 계약을 통해 제공되므로 시장은 수천의 대규모 웹 사이트로 한정된다. 이에 비해 오버추어와 구글은 거의 모든 웹페이지에 광고를 게시하는 방법을 찾아냈다. 게다가 양 회사는 배너 광고나 팝업과 같은 발행자나 광고 대리점이 좋아하는 광고 형태가 아닌 소극적이고 문맥에 따른 소비자의 입장에 선 텍스트 광고를 선택했다. 웹2.0의 교훈:유저 셀프서비스와 알고리즘에 의한 데이터 관리를 도입해 웹 전체--중심부 뿐만이 아니라 주변부, 머리 뿐만이 아니라 긴 꼬리(롱 테일)의 끝에도 서비스를 제공한다. 당연히 이러한 태도는 그 외의 웹2.0 의 성공 사례에도 찾아볼 수 있다. 이베이는 중개 프로세스를 자동화하는 것으로 개인이 불과 수달러의 거래를 부정기적으로 할 수 있게 했다. 냅스터(법적 이유 때문에 활동을 중단했지만)는 악곡 중심의 데이터베이스를 구축하는 대신에 다운로드를 실시하는 모든 사람의 PC가 서버가 되어, 그 결과적으로, 네트워크가 확대되는 시스템을 구축해 네트워크를 펼쳐나갔다. 아카마이 vs 비트토런트 더블클릭과 같이 아카마이의 비즈니스도 꼬리는 아니고 머리에, 주변부는 아니고 중심부에 조준을 맞히고 있다. 아카마이는 중심부의 인기 사이트로의 액세스를 원활히 하는 것으로, 웹의 주변부에 있는 개인에게 이익을 주고 있지만 수익은 중심부의 사이트로부터 얻고 있다. 한편 비트토런트(BitTorrent)는 P2P의 다른 선구자들처럼 진보적인 어프로치로 인터넷의 분산을 꾀했다. 모든 클라이언트는 서버의 역할을 완수해, 파일은 세세하게 분리되어 여러 곳에서 공급된다. 대역폭과 데이터는 다운로드를 실시하는 사람들의 네트워크를 통해 유저의 인식없이 다른 유저에게 제공된다. 파일의 인기가 높은 만큼, 다운로드의 속도도 빨라진다. 인기 있는 파일 쪽이, 대역폭과 파일의 조각들을 제공하는 유저의 수도 많기 때문이다. 비트토런트는 웹2.0의 중요한 원칙을 입증하고 있다. 그것은 이용자가 증가하면 서비스는 자연스럽게 개선된다는 것이다. 아카마이가 서버를 늘리는 것 때문에 서비스를 개선할 수 없는데 비해 비트토런트는 소비자가 빠짐없이 자원을 가져온다. 비트로런트의 서비스에는 「참가의 아키텍처」, 즉 협력의 윤리가 포함되어 있어 서비스는 기본적으로 정보의 중개역으로서 웹의 주변부를 이어, 유저 자신 힘을 이용하기 위해서 존재하고 있다. 플랫폼은 항상 애플리케이션을 능가한다 MS는 플랫폼이 비장의 카드로서 모든 경쟁에서 승리해 왔다. 과거의 경쟁 상대 중에는 높은 시장 점유율을 자랑하는 애플리케이션도 있었다. MS는 윈도우를 이용해 로터스1-2-3를 엑셀에, 워드퍼펙을 워드에 그리고 넷스케이프 내비게이터를 인터넷 익스플로러에 옮겨놓았다. 그러나 이번 싸움은 플랫폼과 애플리케이션이 아니고 완전히 다른 비즈니스 모델을 가진 플랫폼끼리의 사이에서 벌어지고 있다. 한 쪽은 거대한 인스톨 베이스와 긴밀히 통합된 OS나 API를 무기로, 프로그래밍 패러다임(paradigm)를 지배하고 있는 소프트웨어 프로바이더, 다른 한편은 공통의 프로토콜, 개방적인 표준 그리고 협력 협정에 의해서 연결된 소유자를 가지지 않는 시스템이다. 윈도우는 소프트웨어 API에 의한 독점적 지배의 결정판이다. 넷스케이프는 MS가 다른 라이벌에 대해서 사용한 것과 같은 방법으로 MS의 지배권을 강탈하려고 했지만, 그 시도는 실패로 끝났다. 한편 웹의 개방적인 표준을 고집한 아파치(Aache)는 성공을 거두었다. 현재의 싸움은 플랫폼 대 애플리케이션이라는 어울리지 않은 것이 아니고, 플랫폼 대 플랫폼이라는 대등한 것이다. 이 싸움에서는 어느 쪽의 플랫폼이- 더 중요한 지, 어느 쪽의 아키텍처 또는 비즈니스 모델이 향후의 기회에 적합한지가 중요하게 된다. PC시대의 초기에는 윈도우는 문제를 해결하기 위한 훌륭한 솔루션이었다. 윈도우는 애플리케이션 개발 기업에 공평한 씨름판을 제공해, 업계를 괴롭히고 있던 많은 문제를 해결했다. 그러나 하나의 회사가 관리하는 획일적인 어프로치는 이미 솔루션이 아니고 하나의 문제에 지나지 않는다. 커뮤니케이션 지향의 시스템(플랫폼으로서의 인터넷은 틀림없이 그 하나다)은 상호 운용성을 필요로 한다. 모든 상호작용의 양단을 관리할 수 없는 한 소프트웨어 API에 의해서 유저가 로그인 하는 것은 어렵다. 플랫폼을 지배하여 애플리케이션의 이득을 로그인 하려는 웹2.0 기업은 필연적으로 플랫폼을 비장의 카드로 하지는 않을 것이다. 로그인이나 경쟁 우위를 획득할 기회가 없는 것은 아니다. 그러나, 소프트웨어 API나 프로토콜을 지배하는 것으로 그러한 기회를 손에 넣는 것은 어려워질 것이다. 새로운 게임이 시작되었다. 웹2.0시대에 성공을 하는 것은 PC소프트웨어 시대의 룰로 퇴보하려고 하는 기업이 아니라 새로운 게임의 룰을 이해하고 있는 기업이다. 이 기사는 2005년 9월 30일에 O'Reilly Network로 공개된 것이다 |
[웹2.0] 집단 지능이 결집되다 Tim O'Reilly 2006/01/10 ![]() |
|
웹 1.0시대에 탄생해 웹 2.0시대에도 여전히 성공가도를 달리고 있는 대기업은 웹의 힘을 사용해 집단 지능(Harnessing Collective Intelligence)을 이용한다는 웹 2.0의 원칙을 실천하고 있다. 집단 지능을 이용하는 웹2.0의 원칙 • 웹의 기반은 하이퍼 링크이다. 유저가 추가한 새로운 콘텐츠나 사이트는 그 외의 유저에게 발견되어 링크되는 것으로 웹의 구조에 포함된다. 뇌의 시냅스와 같이 이러한 연결은 반복과 자극에 의해서 강화되어 웹 유저 전체의 활동에 따르고, 유기적으로 성장해 간다. • 초기 인터넷 시대의 대표적인 성공 기업인 야후는 카탈로그 혹은 링크 디렉터리로서 등장했다. 야후는 몇천명 또는 몇백만명의 웹 유저가 작성한 웹페이지를 모았다. 그 후, 야후는 사업을 확대해 다양한 콘텐츠를 다루게 되었다. 인터넷 유저 전체의 활동에 액세스하기 위한 포털이라고 하는 역할은 지금도 야후의 본질적인 가치가 되고 있다. • 검색 분야에 있어서의 구글의 핵심 전략은 페이지순위(PageRank)였다. 페이지순위는 문서의 특징뿐만이 아니라 웹의 링크 구조를 사용하고 좀더 좋은 검색 결과를 이끌어내는 수법이다. 이 기술에 의해서 구글은 순식간에 누구나가 인정하는 검색 시장의 리더가 되었다. • 이베이의 상품은 유저 활동 그 자체다. 웹과 같이 이베이도 유저 활동에 따라 유기적으로 성장한다. 이베이의 역할은 유저의 활동의 준비를 하는 것에 있다. 또 경쟁 기업과 비교했을 때 이베이의 강점은 구매자와 판매자가 임계규모(critical mass)에 이르고 있는 것이다. 이 때문에 같은 서비스를 제공하는 기업이 나타나도 그 서비스는 이베이보다 덜 매력적으로 여겨진다. 아마존은 반즈앤노블닷컴 등의 경쟁 기업과 같은 제품을 취급하고 있다. 그리고 양 사는 모두 같은 벤더로부터 제품 정보, 표지 그림, 목차 정보 등을 얻고 있지만 아마존은 유저의 참여를 포함시키는 구조를 구축했다. 아마존에는 타사의 몇 배의 유저 리뷰가 게재되고 있고 거의 모든 페이지에서 유저의 참여를 유도하고 있다. 특히 더 중요한 것은 아마존이 검색 결과를 개선하기 위해서 유저의 활동을 이용하고 있는 것이다. 반즈앤노블닷컴으로 검색하면 보통 자사의 제품이나 스폰서의 제품이 표시되는데 비해 아마존에서는 항상 가장 있기 있는 제품이 표시된다. 이 데이터는 매출뿐만 아니라 그 외의 요소—아마존을 잘 아는 사람들이 제품의 ‘흐름(flow)’라고 부르는 것에 근거해 리얼타임으로 정보를 제공한다. 타사보다 많은 유저 참여를 이끌어내는 것을 생각하면 아마존이 매출에서도 경쟁 회사를 앞지르고 있는 것이 전혀 놀라운 사실이 아니다. 웹에서는 현재 이 원칙을 이해해 한층 더 발전시키고 있는 혁신적인 기업이 두각을 나타내고 있다. • 온라인 백과사전인 위키피디어(Wikipedia)는 누구라도 기사를 투고해 편집할 수 있다는 생각할 수도 없는 아이디어에 근거하고 있다. 위키피디어는 신뢰에 입각한 진보적인 실험이다. 또한 “눈만 충분히 있으면 어떤 버그도 심각하지 않다”라는 에릭 레이먼드(Eric Raymond)의 격언(원래는 오픈 소스 소프트웨어의 문맥으로 말해진 것)을 콘텐츠 작성에 적용하고 있다. 위키피디어는 이미 톱 100 웹 사이트로 꼽히고 있지만 많은 사람들은 톱 10에 진입하는 것은 시간 문제라고 보고 있다. 콘텐츠 작성의 세계에서는 큰 변화가 일어나고 있다! • 최근 큰 주목을 끌고 있는 델리셔스(del.icio.us)나 플릭커(Flickr)와 같은 사이트는 폭소노미(folksonomy)의 선구자이다. 폭소노미란 많은 유저가 자유로운 키워드(일반적으로 태그라고 불린다)를 데이터에 부가하는 것에 의해 데이터를 완만하게 분류해 나가는 방법이다. 본래의 엄밀한 분류 방법과 달리 태그를 이용하면 뇌와 같은 복합적이고 중복된 조합을 만들어낼 수 있다. 예를 들어, 플릭커에 보내진 강아지의 사진에 ‘강아지’와 ’귀엽다’라는 태그를 붙이면 다른 사람들은 어디에서나 자신의 생각과 맞는 사람의 키워드로 이 사진을 찾아낼 수 있다. • 클라우드마크(Cloudmark)와 같은 스팸메일 필터링 제품은 많은 메일 이용자의 판단을 기초로 어떤 메일이 스팸메일인가, 그렇지 않은가를 판정한다. 판정 정도는 메시지만을 분석하는 기존 방법보다 높다. • 인터넷 시대의 성공 기업은 자사의 제품을 광고 하지 않는다. 이러한 기업의 제품은 ‘바이러스 마케팅(viral marketing)’, 즉 유저의 소문에 의해서 퍼진다. 광고에 의존하는 사이트나 제품은 웹 2.0은 아니라고 판단해도 틀림없다. • 오픈 소스의 협동적인 개발 방법은 많은 웹 인프라(Linux, Apache, MySQL, 대부분의 웹 서버에 포함되는 Perl, PHP, Python의 코드 등)에도 적용되고 있다. 오픈 소스 그 자체도 인터넷이 가능하게 한 집합지의 일례다. 소스포지닷넷(SourceForge.net)에는 10만 건을 넘는 오픈 소스 소프트웨어 프로젝트가 등록되어 있다. 이 사이트에는 누구나 프로젝트를 추가할 수 있어 코드를 다운로드하고 그것을 이용할 수 있다. 유저가 이용하는 것에 의해서 새로운 프로젝트는 주변부에서 중심부로 이동한다. 이것은 거의 100%를 바이러스 마케팅에 의존한 유기적인 소프트웨어의 채용 프로세스이다. 교훈:웹 2.0시대에는 유저의 공헌이 가져오는 네트워크 효과가 시장 우위를 획득하는 가장 중요한 요소다. 참여의 아키텍처 몇 개의 시스템은 최초부터 유저의 참여를 유도하도록 설계되고 있다. 댄 브리클린(Dan Bricklin)은 논문 ‘The Cornucopia of the Commons’에서 대규모 데이터베이스를 구축하는 세 가지 방법을 설명했다. 첫 번째는 야후가 보여준 방법으로 데이터베이스를 구축하기 위해 사람들을 고용하는 것이다. 두 번째는 오픈 소스 커뮤니티에서 힌트를 얻은 방법으로 이 작업을 진행할 자원봉사자를 구하는 것이다. 오픈 디렉터리 프로젝트가 하나의 예로 볼 수 있다. 세 번째가 냅스터(Napster)이다. 냅스터는 다운로드 받은 음악을 자동으로 업로드하게 되어 있다. 이 결과 모든 유저는 자동적으로 공유 데이터베이스의 가치의 향상에 공헌하게 되었다. 이후 모든 P2P 파일 공유 서비스는 이러한 접근 방식을 따르고 있다. 웹 2.0시대의 중요한 교훈의 하나는 유저가 가치를 더한다는 것이다. 그러나 소수의 유저만이 자신의 시간을 할애해 기업 애플리케이션의 가치를 높이려고 할 것이다. 따라서 웹 2.0 기업은 애플리케이션의 일상적인 사용의 부수 효과로 유저 데이터를 수집하고, 애플리케이션의 가치를 높일 수 있는 포괄적인 정책들을 설정해야 한다. 앞서 언급한 것처럼, 웹 2.0 기업의 시스템은 이용자가 증가할수록 개선된다. 미치 케이퍼(Mitch Kapor)는 “아키텍처는 정책이다”라고 말했다. 참여는 냅스터의 본질이며, 기본 아키텍처의 일부분이다. 이러한 참여의 아키텍처가 종종 언급되는 자원봉사 정신보다 오픈 소스 소프트웨어의 성공에 기여했을지도 모른다. 인터넷, 월드 와이드 웹, 리눅스, 아파치, 펄 등의 오픈 소스 소프트웨어에는 이러한 아키텍처가 적용되고 있어 ‘이기적인’인 관심사를 추구하는 개인 사용자들이 집단 가치까지 높일 수 있게 되어 있다. 이러한 프로젝트들 각각은 작은 핵심, 명확하게 정의된 확장 구조, 사용자들이 추가할 수 있도록 잘 정의된 컴포넌트를 갖고 있다. 이것은 펄의 창시자인 래리 윌(Larry Wall)이 ‘양파’를 예를 들어 설명한 성장하는 외부 계층들을 갖고 있다. 이러한 기술은 그들이 고안했던 방식대로 네크워크 효과를 낳고 있다. 이러한 프로젝트는 참여의 아키텍처에 적절한 것인지도 모른다. 그러나 아마존에서 보여준 것처럼 지속적인 노력(제휴 프로그램과 같은 인센티브를 이용하면)을 하면 이 아키텍처와는 전혀 무관하다고 생각되는 시스템에도 참여의 아키텍처를 적용할 수 있다. 블로그와 집단의 지혜 웹 2.0시대의 특징으로 가장 많이 언급되는 것이 블로그의 출현이다. 개인 홈 페이지는 웹의 초기부터 존재했고, 일기나 개인의 의견을 엮은 컬럼은 그 이전부터 있었다. 그렇다면 지금 이 정도로 각광을 받고 있는 것을 무엇 때문인가. 블로그의 기본은 일기 형식의 개인 홈페이지다. 그러나 리치 스크렌터(Rich Skrenta)가 지적한 대로 블로그의 연대기적 구조는 사소한 차이로 보이지만 기존과는 완전히 다른 전달 방법, 광고, 가치 사슬을 생산하고 있다. 블로그를 특별하게 만든 또 하나의 요인은 RSS로 불리는 기술이다. RSS는 웹의 기본 구조에 중요한 진보를 가져왔다. 초기 해커들은 CGI를 사용하는 것으로 데이터베이스와 연동한 웹 사이트를 구축할 수 있는 것을 발견했다. 그 시기 이후 RSS는 가장 중요한 진보라 할 수 있다. RSS를 이용하면 페이지에 링크할 뿐만 아니라 그 페이지를 구독할 수 있어 페이지가 변경될 때마다 변경 사실을 알 수 있다. 스크렌터는 이것을 ‘성장하는 웹(the incremental)’이라고 부르고, 다른 이들은 ‘라이브 웹(live web)’이라고 부른다. 물론 데이터베이스와 연동해 동적으로 콘텐츠를 생성하는 ‘동적인 웹 사이트’가 정적인 콘텐츠를 갖는 웹 페이지를 대체한 것은 수십년 전이다. 라이브 웹에서 동적이라고 하는 것은 페이지뿐만 아니라 링크도 의미한다. 블로그에 링크하는 것은 계속 바뀌는 페이지에 링크하는 것과 동일하다. 각각의 기사에 링크할 때는 고유링크(permalink)를 이용한다. 블로그에 갱신된 사항이 있으면 이를 알려주는 메시지가 전달된다. 이와 같이 RSS 피드는 북마크나 링크보다 훨씬 강력하다. 또한 RSS는 웹 브라우저가 단순히 웹 페이지를 보여주는 수단이 아니라는 것을 의미한다. RSS 수집기에는 블로그라인과 같은 웹 기반인 것도 있지만 데스크톱 클라이언트도 있다. 그 외에 사용자가 휴대 기기에서 끊임없이 갱신되는 콘텐츠를 볼 수 있도록 해주는 것도 있다. 현재의 RSS는 블로그의 기사뿐만이 아니라, 주가, 날씨 정보, 사진 등 모든 종류의 데이터의 갱신을 알리기 위해 이용되고 있다. 이것은 RSS의 근원까지 거슬러 올라간다. RSS는 1997년에 정기적으로 갱신된 데이터의 정보를 보내기 위해 이용되던 데이브 위너(Dave Winer)의 ‘Really Simple Syndication’ 기술과 넷스케이프의 ‘Rich Site Summary’가 합류하는 것에 의해서 탄생했다. Rich Site Summary는 넷스케이프의 포털 사이트를 사용자가 커스터마이즈해 갱신 정보를 정기적으로 얻을 수 있도록 하는 기술이었지만 넷스케이프는 이 기술에 흥미를 갖고 있지 않았다. 결국 이 기술은 블로그의 개척자인 유저랜드(Userland)에 의해 발전했다. 현재의 RSS 관련 애플리케이션에는 양쪽 기술 모두를 볼 수 있다. 그러나, 일반적인 웹 페이지와 블로그를 구별해주는 것은 RSS만이 아니다. 톰 코티스(Tom Coates)는 고유링크(permalink)의 중요성에 대해 다음과 같이 말하고 있다. “…사소한 기능과 같이 생각될지도 모르지만 고유링크(permalink)의 등장에 따라 블로그는 간단하게 정보를 보낼 수 있는 툴에서 커뮤니티들이 회화 형식으로 생산되는 것으로 바뀔 수 있었다. 고유링크에 의해 처음으로 다른 사이트의 특정 기사에 대해 의견을 내놓고 사이트의 소유자와 대화할 수 있는 것이 가능하게 되었다. 토론이 등장하고 채팅이 시작되었다. 그 결과, 우정이 생겼거나 혹은 우정을 더욱 견고하게 만들었다. 고유링크는 블로그와 블로그를 엮는 첫 번째이자 가장 성공적인 시도였다”(코티스) RSS와 고유링크는 웹 프로토콜인 HTTP 위에 유즈넷(Usenet)의 NNTP(Network News Protocol)의 많은 특성을 다양한 방법으로 추가시켰다. 블로그스피어(blogosphere)는 초기 인터넷의 대화의 장으로 여겨졌던 유즈넷과 게시판이라고 할 수 있다. 사람들은 서로의 사이트를 읽고 각 페이지의 코멘트에 간단하게 링크하는 것이 가능하다. 뿐만 아니라 트랙백(trackback)이라고 불리는 구조를 사용하면 다른 사람이 자신의 페이지에 링크한 것을 알 수 있어 상호 링크하거나 코멘트를 추가하는 것으로 응답할 수 있다. 흥미롭게도 양방향 링크는 제나두(Xanadu)와 같은 초기 하이퍼 텍스트(hyper text) 시스템이 목표였다. 하이퍼 텍스트(hyper text) 순수주의자들은 트랙백을 양방향 링크를 실현하기 위한 걸음으로서 환영했다. 그러나 트랙백은 엄밀하게는 양방향이 아니다. 양방향 링크와 동등한 효과를 만들어내는 대칭적인 단방향 링크이다. 이 차이가 사소하게 생각될지도 모르지만 실제로는 매우 크다. 예를 들어, 상대의 승인이 있어야만 커넥션을 구축할 수 있는 ‘Friendster’, ‘ Orkut’, ‘LinkedIn’과 같은 소셜 네트워킹 시스템은 웹 정도의 확장성을 갖고 있지 않는다. 사진 공유 서비스인 플릭커(Flickr)의 공동 설립자인 캐터리나 페이크(Caterina Fake)가 지적한 대로 상호 관심을 갖게 되는 것은 우연히 일어나는 것이다. (이 때문에 플릭커에서는 유저가 관찰 목록(Watch List)를 작성해 한 유저가 RSS를 통해 다른 유저가 갱신하는 사진을 볼 수 있도록 하고 있다. RSS에 등록했을 경우, 상대에게도 알려지지만 승인을 받을 필요는 없다) 웹 2.0의 본질이 집단 지능을 이용해 웹을 글로벌 브레인으로 바꾸는 것이라고 하면 블로그스피어는 끊임없이 계속되는 뇌 속의 대화를 모든 유저가 들을 수 있도록 하는 것이다. 이것은 뇌의 깊은 부분에서 거의 무의식가운데 행해지고 있는 사고가 아니라 오히려 의식적인 사고에 가깝다. 그리고, 의식적인 사고와 관심으로 인해 블로그스피어는 큰 영향력을 가지게 되었다. 검색 엔진은 적확한 검색 결과를 이끌어내기 위해서 링크 구조를 이용하고 있다. 이로 인해 대량의 링크를 만들어내는 블로거들은 검색 엔진 결과를 생성하는 중요한 역할을 하고 있다. 또한 블로그 커뮤니티는 극히 자기 언급적이기 때문에 다른 블로거가 주목하는 것으로 블로그의 존재감과 영향력을 확대하게 된다. 비평가들이 비난하고 있는 ‘반향실(echo chamber)’도 또 다른 증폭기이다. 이것이 단순한 증폭기였다면 블로그는 보잘 것 없는 것이 되었을 것이다. 그러나 위키피디어(Wikipedia)와 같이 블로그에서는 집단 지능이 일종의 필터 역할을 하고 있다. 제임스 슈리어웨키(James Suriowecki)가 ‘집단의 지혜’라고 부른 것이 페이지순위가 개별 문서를 분석하는 것보다도 뛰어난 검색 결과를 만들어내는 것처럼 블로그스피어에서는 집단의 관심이 가치 있는 것을 선별해낸다. 주류 미디어는 특정 블로그를 경쟁 상대라고 생각하겠지만 정말로 걱정스러운 것은 경쟁 상대가 블로그스피어 전체라는 것이다. 이것은 단순한 사이트간의 경쟁이 아니라 비즈니스 모델간의 경쟁이다. 웹 2.0 의 세계는 댄 길모어(Dan Gillmor)가 ‘우리가 미디어다(We, the media)’라고 부른 세계이기도 하다. 이 세계에서는 소수의 사람들이 은밀한 곳에서 무언가를 결정하는 것이 아니라 ‘한 때의 청중’이 무엇이 중요한가를 결정한다. @ 이 기사는 2005년 9월 30일에 O'Reilly Network로 공개된 것이다. |