ガイドライン違反を繰り返す SEO 業者への対応について
2013年10月25日
PageRank を渡すリンクを売買することは Google の ウェブマスター向けガイドライン(品質に関するガイドライン)に違反しています。サイトへの不自然なリンクが存在することを理由として 手動による対策が施されている場合、該当するリンクをできるだけ削除する努力を行った上で、再審査を申請することができます。これにより、数多くのウェブマスターが手動による対策を解除されています。不自然なリンクを多数作成してしまった SEO 業者と粘り強く交渉し、解除に至った例もあります。
しかし、中には悪質な SEO 業者が存在し、再審査リクエストを難しくしている例があるようです。下記のような例が報告されています。
しかし、中には悪質な SEO 業者が存在し、再審査リクエストを難しくしている例があるようです。下記のような例が報告されています。
- 不自然なリンク操作を自ら行ったにもかかわらず、ウェブマスターからのリンク削除の依頼に応じない。
- 手動対策によるサイトへの影響はないと主張し、ウェブマスター ツール上のメッセージを無視して、再審査リクエストを送信しないことを推奨してくる。
- 対応するにあたり、法外な費用などを請求する。
- あなたのサイトに対して手動による対策が適用されている場合、必ず再審査リクエストを送信してください。
- 再審査リクエスト送信時には、業者とのやりとりに関する詳細な情報をご記入ください。やむをえない場合は、リンクの否認ツールを利用し、該当するリンクを無視するよう指定してください。お寄せいただいた情報に基づき、総合的に審査いたします。
品質に関するガイドライン
この品質に関するガイドラインでは一般的な偽装行為や不正行為について説明していますが、ここに記載されていない不正行為についても、Google で対応策を実施することがあります。また、このページに記載されていない行為が許可されているとは限りません。抜け道を探すことに時間をかけるより、ガイドラインを遵守することでユーザーの利便性が向上し、検索結果の上位に表示されるようになります。
Google の品質に関するガイドラインに準拠していないと思われるサイトを見つけた場合は、スパム報告で Google にお知らせください。個別の不正行為対策を最小限に抑えられるよう、Google では拡張可能で自動化された解決方法の開発に努めています。Google では、すべての報告に対して手動による対策を講じるとは限りませんが、ユーザーへの影響度に応じて各スパム報告に優先度を設定し、場合によってはスパム サイトを Google の検索結果から完全に削除することがあります。
ただし、手動による対策を講じた場合には必ずサイトを削除する、というわけではありません。また、報告を受けたサイトに対して Google で対策を講じた場合でも、その効果があったかどうかが明確にならないこともあります。
品質に関するガイドライン - 基本方針
- 検索エンジンではなく、ユーザーの利便性を最優先に考慮してページを作成する。
- ユーザーをだますようなことをしない。
- 検索エンジンでの掲載位置を上げるための不正行為をしない。ランクを競っているサイトや Google 社員に対して自分が行った対策を説明するときに、やましい点がないかどうかが判断の目安です。その他にも、ユーザーにとって役立つかどうか、検索エンジンがなくても同じことをするかどうか、などのポイントを確認してみてください。
- どうすれば自分のウェブサイトが独自性や、価値、魅力のあるサイトといえるようになるかを考えてみる。同分野の他のサイトとの差別化を図ります。
- リンク プログラムへの参加
- オリジナルのコンテンツがほとんどまたはまったく存在しないページの作成
- クローキング不正なリダクト
- 隠しテキストや隠しリンク
- 誘導ページ
- コンテンツの無断複製
- 十分な付加価値のないアフィリエイト サイト
- ページへのコンテンツに関係のないキーワードの詰め込み
- フィッシングや、ウイルス、トロイの木馬、その他のマルウェアのインストールといった悪意のある動作を伴うページの作成
- リッチ スニペットマークアップの悪用
- Google への自動化されたクエリの送信
次のような望ましい行動を習慣付けます。
サイトがガイドラインに違反している場合、Google ではサイトに対して手動による対策を適用します。問題を修正すると、サイトの再審査をリクエストできます。
デザインとコンテンツに関するガイドライン
- わかりやすい階層とテキストリンクを持つサイト構造にします。各ページには、少なくとも 1 つの静的なテキストリンクからアクセスできるようにします。
- サイトの主要なページへのリンクを記載したサイトマップを用意します。サイトマップ内にリンクが非常に多数ある場合は、サイトマップを複数のページに分けることをおすすめします。
- 1 ページのリンクを妥当な数に抑えます。
- 情報が豊富で便利なサイトを作成し、コンテンツをわかりやすく正確に記述します。
- ユーザーがあなたのサイトを検索するときに入力する可能性の高いキーワードをサイトに含めるようにします。
- 重要な名前、コンテンツ、リンクを表示するときは、画像ではなくテキストを使用します。Google のクローラでは、画像に含まれるテキストは認識されません。テキスト コンテンツの代わりに画像を使用する必要がある場合は、alt 属性を使用して簡単な説明テキストを組み込みます。
- <title> タグの要素と ALT 属性の説明をわかりやすく正確なものにします。
- 無効なリンクがないかどうか、HTML が正しいかどうかを確認します。
- 動的なページ(URL に「?」が含まれているページなど)を使用する場合、検索エンジンのスパイダーによっては、静的なページと同じようにはクロールされない場合があることを考慮します。パラメータを短くしたり、パラメータの数を少なくしたりすると、クローラに見つけられやすくなります。
- 画像、動画、リッチ スニペットの各注意事項をご覧ください。
技術に関するガイドライン
- Lynxなどのテキスト ブラウザを使用して、サイトを確認します(ほとんどの検索エンジンのスパイダーには Lynx で見えるようにサイトが映ります)。JavaScript、Cookie、セッション ID、フレーム、DHTML、Flash などの特殊な機能が使用されているためにサイトの一部がテキスト ブラウザで表示されない場合、検索エンジンのスパイダーがサイトをうまくクロールできない可能性があります。
- セッション ID やサイト内のパスをトラッキングする引数がなくても、検索ロボットがサイトをクロールできるようにします。これらの技術は個々のユーザーの行動をトラッキングする場合には便利ですが、ロボットがアクセスするパターンとはまったく異なります。そのため、これらの技術を使用すると、実際は同じページにリンクしている別の URL をロボットが排除できず、そのサイトのインデックスが不完全なものになる可能性があります。
- ウェブサーバーが If-Modified-Since HTTP ヘッダーに対応していることを確認します。この機能を使用すると、Google が前回サイトをクロールした後にコンテンツが変更されたかどうかがサーバーから Google に通知されるため、帯域幅や負荷を軽減できます。
- ウェブサーバーの robots.txt ファイルを活用します。このファイルでは、クロールを実行するディレクトリと実行しないディレクトリを指定できます。誤って Googlebot クローラがブロックされることのないよう、このファイルにサイトの最新の状態が反映されていることを確認してください。サイトへのロボットによるアクセスを制御する方法については http://code.google.com/web/controlcrawlindex/docs/faq.htmlをご覧ください。Google ウェブマスター ツールの robots.txt 分析ツールを使用して、robots.txt ファイルを正しく使用しているかどうかをテストできます。
- 広告が検索エンジンの掲載順位に影響を与えないように、適切な対処をします。たとえば Google の AdSense 広告や DoubleClick のリンクは、robots.txt ファイルでクロールをブロックします。
- コンテンツ管理システムを導入する場合は、検索エンジンがサイトをクロールできるようなページやリンクを、システムが作成することを確認します。
- robots.txt を使用して、検索結果ページや、検索エンジンからアクセスしたユーザーにとってあまり価値のない他の自動生成ページをクロールしないよう制御します。
- サイトをテストして、各ブラウザで正しく表示されることを確認します。
- サイトのパフォーマンスを監視して、読み込み時間を最適化します。Google の目標は、最も関連性の高い検索結果と優れた利便性をユーザーに提供することです。表示が速いサイトは、ユーザーの満足度を高め、ウェブ全体の質を向上させます(特にインターネット接続速度が遅い場合)。そのため、Google では、ウェブマスターがサイトを改善することで、ウェブ全体の速度が上がることを期待しています。
ウェブマスターの皆様には、Page Speed、YSlow(英語)、WebPagetest(英語)、その他のツールを使用して定期的にサイト パフォーマンスを監視することを強くおすすめします。ツールやリソースなどの詳細については、ウェブ高速化をご覧ください。
コンテンツ解析の更なる向上と検索との会話
マット・カッツ氏は今後のSEOについて、バックリンク(他サイトからのリンク)での評価方法ではなく、「1コンテンツ自体の質」と「誰がそれを書いたか」が重要になっていくと発言。その為に自然言語処理分野へのGoogleの取り組みが今後、重要になっていくのだという。
専門家が書いたページを判別可能に
同社のマット・カッツ氏は2014年5月5日、YouTube公式チャンネル「Google Webmasters」で、サイト評価システムに関するユーザーからの質問に答えた。バックリンク(被リンク)の評価からコンテンツ自体の質の評価に移行し、「バックリンクの重要性は失われるのか」という質問だ。Googleでは「パンダアップデート」や「ペンギンアップデート」呼ばれるアルゴリズム変更をたびたび実施してきた。その直後には不自然なリンクを貼られたサイトのページランキングは急落している。
質問に対してカッツ氏は、バックリンクはサイトやページの評判を評価するため今後何年も利用されるとしながらも、「そのうち重要性はやや薄れる」と答えた。同社は検索で表示されたページがユーザーのニーズに合致することが大事だと考え、専門家が書いたページを判別できるよう取り組んでいるという。
たとえ誰が書いたのかがわからなかったとしても、自然言語処理技術でコンテンツの質を見極める。将来的にはSFテレビドラマ「スタートレック」のような、コンピューターとの対話型の検索の実現も目指しているという。
カッツ氏の発言が「SEO業者全滅か!?」と日本で紹介されると、
「これは大きな影響を与えそう」
「ますます検索に頼らない流入を考えないとね」
「グレーゾーンのseo対策をしていた業者は今後は厳しくなっていくのかな」
とツイッターなどで騒ぎになった。
また、「何を言ったかより誰が言ったかが重視されていくだとすると、わたしの好きなインターネットとはちょっと違う…」「著名人の言葉だけをありがたく拝聴するメディアに成り下がって堕落していくのか。。。」と残念がる意見も書き込まれた。