折角、昨日10 definitions of Web 2.0 and their shortcomings紹介したばかりだというのに、もうこんな記事が出ていて、なんだかなぁ、という感じ。なんだろう、Web2.0がどうのこうのと言っているのは昨日今日ネットを始めたばかりの人たちなのだろうか。例え昔のこと(と言っても90年代半ば以降の話だ)をリアルタイムで経験していなかったとしても、もう少し調べてから書けばいいのに。

極端な話、「今までなかったネットに関するあれこれ」を全部まとめて「Web2.0」と呼んでいるだけ。「Web2.0」と書いて日本語では「うぇぶにーてんぜろ」と読むらしい。あれこれの定義が存在するが、ここはひとつ、初歩の初歩に戻ってサービス自体を比較すると理解しやすい。
Web2.0とは結局、一体、何なのか? – GIGAZINE

言い出しっぺのTim O’Reillyが明確な定義を行っていないのだから「『今までなかったネットに関するあれこれ』を全部まとめて『Web2.0』と呼んでいるだけ」という点には共感するが、その後に行われている個々の「比較」には大いに疑問がある。

・例その1:旧Yahoo!→Google
つまり、手動だったモノが自動化されている、そのため、検索の結果も違ってくる。そして自動の方が手動よりも正確に欲しいものを見せてくれる、だから新しい、ゆえにWeb2.0というわけ。
Web2.0とは結局、一体、何なのか? – GIGAZINE

「手動だったモノ」の例にはYahoo!しか取り上げられていないが、ExciteやLycosやInfoseekやAltaVistaやInktomiはどうだったのであろうか。手動でディレクトリを形成していたのはYahoo!だけであったと記憶しているのだが。技術的なことは詳しくないのでこの点についてはひょっとしたら間違っているかもしれないが、「自動化」のための手段が古くから存在していたことは以下のサイトを見れば明らかである。

Primative Web Search:

By December of 1993, three full fledged bot fed search engines had surfaced on the web: JumpStation, the World Wide Web Worm, and the Repository-Based Software Engineering (RBSE) spider. JumpStation gathered info about the title and header from Web pages and retrieved these using a simple linear search. As the web grew, JumpStation slowed to a stop. The WWW Worm indexed titles and URL’s. The problem with JumpStation and the World Wide Web Worm is that they listed results in the order that they found them, and provided no discrimination. The RSBE spider did implement a ranking system.

WebCrawler:

Brian Pinkerton of the University of Washington released the WebCrawler on April 20, 1994. It was the first crawler which indexed entire pages. Soon it became so popular that during daytime hours it could not be used. AOL eventually purchased WebCrawler and ran it on their network. Then in 1997, Excite bought out WebCrawler, and AOL began using Excite to power its NetFind. WebCrawler opened the door for many other services to follow suit. Within 1 year of its debuted came Lycos, Infoseek, and OpenText.

History of Search Engines & Web History – Search Marketing

1993年には早くもbotが、翌年にはCrawlerが登場していることから明らかなように、「自動化」は最近になって実現したものではない。

・例その2:バナー広告→コンテンツ連動型広告
ラーメンの記事ではラーメンの広告が、化粧の記事では化粧品の広告が、金儲けの記事では株や消費者金融の広告が、というようになるわけです。自動的に記事の内容やページの内容と合致した広告が表示されるため、その記事やページに興味を持っているユーザーであれば同じようなテーマや傾向の広告にも興味を持ってくれるに違いない、単純に一定の内容を見せるバナー広告よりもユーザーの興味と確実に連動する、だから新しい、ゆえにWeb2.0というわけ。
Web2.0とは結局、一体、何なのか? – GIGAZINE

仮面ライダーカブトの番組にそのキャラクター商品のCMが流れるといったようなことは昔から行われており、内容に合った広告を出稿すること自体は宣伝の基本であってWeb2.0とは直接関係がない。AdWordsやAdSenceは、それを検索技術を駆使してダイナミックに実現したに過ぎない。Googleの検索精度をもってして初めて可能となったことではあるが、それでも所詮は機械がやることなのでまだ完璧とは言えない。GoogleやAmazonなど特定の会社のサービスがWeb2.0であるかのような書き方となっているがそれでいいのだろうか。

・例その3:無料ホームページスペース→ブログサービス
一方的に情報を発信するだけではなく、コメントを受け付けたり、トラックバックを受信したりできるので、読者との双方向性もあり、交流も可能。しかもそういう技術的な仕組みを一切気にすることなく、淡々と更新していればそれでOK。ある意味、更新作業以外は全自動です。今までのホームページと違って、専門的な知識が必要なく、双方向性があり、一気にネット上での情報発信の敷居を下げた点が画期的、だから新しい、ゆえにWeb2.0というわけ。
Web2.0とは結局、一体、何なのか? – GIGAZINE

ホームページでも掲示板を設置することによって双方向性は保たれていたし、意見があればメールすればよかった。「専門的な知識が必要なく」というのがHTMLを書かなくとも良くなったという意味だとすれば、blogの登場以前にもWYSIWTGタイプとエディタは多数存在した(Wordなんかその最たる例)のでHTMLを書く必要は必ずしもなかった。第一、blogが「全自動」なのはポータル・サイト側が事前にいろいろと準備をしていてくれるからであって、すべてオリジナルでやろうとしたら、まずサーバーのスペースを確保してからCMSを導入するなど、いろいろと作業が必要な点はそれほど昔と変わらない。blogが「情報発信の敷居を下げた」のように見えるのは、CGM自体がポータル側がカスタマイズしやすいように設計されていたからに過ぎない。
確かに「敷居」は下がった。だがそれは技術の発展に伴う歴史的な経緯であって、「Web2.0」なんて言葉が生まれようが生まれまいが、それとは関係なく元々「敷居」は下がっていく方向にあったのではないか。技術とはそういうものである。

この「Web2.0とは結局、一体、何なのか?」というエントリには「Web2.0の条件4つ」続編まであるのだが、言っていることは殆ど同じだ。

・Web2.0の条件その1:自動化
・Web2.0の条件その2:双方向性
・Web2.0の条件その3:敷居を下げる
・Web2.0の条件その4:無料
「Web2.0の条件4つ」 – GIGAZINE

「自動化」については検索サービスに加えて「ブログは文字さえ入力すれば自動的に整形して表示してくれます。コメントやトラックバックも自動的に表示されます。」などと他の点についても触れているが、みんなソフトウェアがやることなのだから「自動」なのは当たり前。機械にやらせた方が早くて楽なものはどんどんそうした方が良いに決まっている。そんなことを言っていたら産業革命はおろか道具が発明された時点にまで戻らなければならなくなってしまう。

「双方向性」については掲示板、E-Mail、News Groupなどネットで行われている行為全てに当てはまる。通信なのだからこれも当たり前のことである。Wikipediaは双方向性というよりも共同作業の観点から述べるべきであろう。

「敷居を下げる」という点については、先に述べたのでもういいだろう。「無料」についてはビジネスモデルの問題に直結する。これは更なる続編によって語られるらしい。

———————————————————–

この2つのエントリには、コンテンツを作るのはユーザーである点が抜けている。またFlickrやYoutubeのように、それをShareするという点もだ。昔はポータルだろうが個人のHPであろが、コンテンツはサイトを運営する側が作成していたが、Web2.0と言われているサービスはユーザーが中身を積み上げていき、運営側は仕組みを提供するだけである点が大きく違う。

掲示板だけはWeb2.0以前からユーザーの書き込みによってその内容が形成されていたが、2chの内容をコピペしただけのサイトが多くのアクセス数を集めているのを見ると、それが立派にコンテンツとして成立していると言う点で、Web2.0を先取りしていたと言えるのかも知れない。

広告