いま検索エンジン最適化はどうなっているの?

というわけで、起業ノウハウライブラリをスタートします。

起業ノウハウライブラリはネットの変化が激しいので、その年ごとのネットのトレンドを時系列的に追っていくためのライブラリです。

まずは大きなカテゴリである「検索エンジン最適化」についてです。

2011年の検索エンジン最適化は大きな変化を迎えています。

検索エンジン最適化の初期はというと、キーワード比率やタグによる重み付け、ページリンク、被リンク数といった要素が関わってきましたが、いまやこれらの要素はあまり問題視されていません。

というのもHTML5時代を迎えたことと、TwitterやFacebookのような新メディアが登場したためです。

例えば、もっとも顕著な例としては、自分ウェブサイトに明らかにその単語は存在しないのに、アクセス解析を見るとその単語でのアクセスがある、というログを発見したことはないでしょうか?

キーワードが複数指定されていて、そのどちらかにヒットするというのは考えられますが、まったく含まれていないキーワードにヒットする、というのは、検索エンジンがキーワードの存在性ではなく関連性で誘導していることが考えられます。

Googleでは「もしかして」の訂正提案機能がありますが、これに似たような機能で検索するキーワードがマイナーだと、連想するキーワードや関連するキーワードまでも拡大して候補表示をしているということが予想できます。

つまり、昔のように検索結果の上位に表示したいキーワードをやたらとウェブサイトに含める単純な手法では通用しないということです。

これに関連したことですが、HTML5対応のブラウザが続々と増える中で、ウェブページのソースコードが高度化しています。

javaScriptも拡張され、よりインタラクティブなウェブページがどんどん増えています。

例えばフォームに入力するための補助機能として、ちょっと入力しただけで様々な入力補助を行ってくれるプログラムや、ユーザーの行動に連動した広告プログラムなどが増えています。

ソースコードが複雑化し高度化すると、そのページの価値が必ずしも、文章といったコンテンツ系のみに依存することはありません。

文章は少ないけれど、ユーザーの使いやすさという点では非常に価値がある、といったウェブページも存在します。

こういった高度なウェブページが増えてきている中で、単純に書かれている文章を構文解析して検索キーワードとの親和性の高さを計算しているだけでは、真にユーザーが求めているページを検索結果に出すことはできず、逆にアダルトサイトなどのスパムといたちごっこになります。

また情報を必ずしも自分サイトやブログで発信するとは限りません。

ツイッターや加入しているSNS内でリリースするということはよくあります。

例えば、自サイトとツイッターとブログを運営している場合を考えてみます。

新情報を自サイトで発表している分には単純ですが、ツイッターやブログで発表している場合は、それぞれサービスが異なるため、発言者の統一性が弱くなります。

ましてやSNS内で発言していれば検索ロボットは巡回できません。

するとそのコンテンツの信用性や関連性というのは、単純にウェブページ同士の相互リンクだけ、検索キーワードの人気度だけでは測れなくなってきたのです。

ユーザーのネット上の行動や態度が非常に複雑化してしまい、ロボット巡回だけではカバーできなくなったのです。

そこで、最近、Google(ヤフーもいま裏でGoogleが動いています)では、検索結果を個人向けにカスタマイズしています。

Aさん用とBさん用とで検索結果をカスタマイズしています。

Googleのアカウントを持っていない場合は、単純にクッキーに検索履歴を保存しておいて、過去の検索にもとづくそれに関連した検索結果を表示しています。

しかし、アカウントを持っている人は、連携するGoogleのサービスの利用形態の分析により、広範囲な検索結果のカスタマイズが行われます。

Gmailサービスや最近はじまったGoogle+といったサービスから、そのユーザーの興味に応じた検索結果が表示されるようになっています。

より精度の高い検索結果を提供することは、より精度の高い広告が出せるからです。

つまり、検索結果がそれぞれ個人的にカスタマイズされている状態では、「○○○で一位」という考え方が通用しなくなります。

パブリックな一位とプライベートな一位とでは意味が異なります。

まだまだ不十分ですが、時間の経過とともに検索結果のプライベート化は著しくなると思います。

Google+は有機的に繋がっている友達のおすすめをその友達の検索結果におすすめとして表示させる機能なのでユーザーが積極的に動けば動くほど、ユーザーの嗜好にあった検索結果をカスタマイズしてくれます。

日本では三大検索エンジンのうちYahoo!がGoogleのデータと連携するようになったため、実質的にはマイクロソフトのBingとGoogleといった構造なのですが、シェアが違い過ぎてBingに勝ち目はなく、Googleの一人勝ちとなっています。

では、検索エンジン最適化はどのように変わるのか? というと、キーワードベースの考え方から、好感度ベース、フォローベース、広告関連ベースへとシフトします。

これまでどおりウェブページをシコシコ作っているだけでは評価されないモグラです。

好感度ベースというのは、検索ユーザーとの繋がりをより濃くすることで好感度が上がります。

例えば、Google+に加入してユーザーから支持を集めるとユーザーからの有機的な投票があり信用度が上がります。

信用度のあるユーザーのコンテンツは好感度が高いと判断されます。

フォローベースというのは、面白いコンテンツを発信しているユーザーを発掘し世の中に広めることです。面白いツイート、面白い商品など検索エンジンがフォローしきれないものを発掘しフォローすると、信用度が上がります。

いわゆるアルファブロガー的な活動です。

広告関連ベースというのは、非常に重要なのですが、検索エンジンは広告で食べています。お客は広告主であり、最終的に広告に誘導するのが狙いです。

つまり、広告主の広告商材に関連した(でもバッティングしない)コンテンツを作られるユーザーは、検索エンジンに優遇されます。

自分が発信したいものを発信するより、広告主の商品が売れるコンテンツを発信できるユーザーが優遇されるわけです。

ロケットニュースやらばQなどはその典型かもしれませんね。

ここからは推測です。

GoogleはFacebookの登場によりロボット型の弱点を痛感しました。

ロボット型の弱点はコンテンツ乞食です。人の作ったコンテンツを巡回して勝手にコピーを取りリスト化し広告を載せることで成立しています。

しかしFacebookのようなSNSはクローズドサービスであるため、ロボットが巡回できません。いままで飛ぶ鳥を落とす勢いだったGoogleははじめて「おまえにはコンテンツをみせてやんないよ!」と突き返されたわけです。

一方、Googleはアルゴリズム主体という非人情的な戦略が裏に出て、アダルトサイトとのSEOスパムに消耗していました。焦ったGoogleが立ち上げたのがGoogle+というSNSです。

そこでGoogleが今後取るだろう戦略は、Google版インターネットを作ってしまうことです。まるで昔のパソコン通信のようですが、要するに半導体価格も下がってきたことで、世界の情報を取り込む余裕は十分にあります。

いままでいろんなサーバーのいろんなサービスにユーザーがてんでバラバラで情報をアップロードしていたものを、Google内サーバーに取り込んでしまえばいいわけです。

Googleのデータベースに直接書き込んでしまえばいいわけです。

この時点でロボット巡回は必要なくなります。

著作権もある程度クリアできます。

インターネットの中にインターネットを構築し、各国の言語も翻訳した統一データネットワークを実現すれば、広告主は国とユーザーを選ぶ必要がなく市場は一気にひろがります。

アドセンス目当てのアフィリエイターも市場が広がるので、いわばGoogleお抱えのブログ記者になるというわけです。

私はこのようになっていくだろうと予測します。

【引用元 goo イメージサムネイル】

関連記事