Google検索順位変動の要因とSEOの心構え

順位変動への対応
[today_date_hyouji]時点で確認できている直近の順位変動 (mozcastのTwitterより)

アルゴリズム変動の値は通常70°。高ければ高いほどアルゴリズムによる変動の度合いが大きい。

SEOに取り組み初めたばかりの場合は誰でも検索順位変動に一喜一憂してしまいがちです。確かに折角作成したコンテンツの順位が落ちてしまったら、誰でも不安になり、その原因を調べたくなってしまうものです。

結論を先に言ってしまえば、200以上のシグナルをもとに複合的に判断するアルゴリズムの動きは複雑で、実際に順位が落ちた原因を断定する事はできません。

このような場合に、すぐに順位が元に戻るような魔法のようなテクニックというものはなく、結局ウェブサイトやコンテンツの使いやすさや品質をユーザー目線で改善していくしかありません。
ここでは、推測される順位変動要因と、順位変動に対する心構えについて解説します。

目次

既存コンテンツにおける順位変動要因

既に作成したコンテンツがGoogleに評価されて上位表示されたとしても、時間がたてば突然順位が下降することもあれば、徐々に下降してしまう場合もあります。
このような時に考えられる検索順位の変動の原因としてはウェブサイトに対する設定ミスや変更などによる内部要因と、外部環境の変化による外部要因とがあります。

順位変動の内部要因

ウェブサイトの設定ミスや影響の強い要素の変更

ウェブサイトの設定で考えられるミスとしては、次のようなものがあります。

  • サイトリニューアル時の301リダイレクト忘れ
  • ナビゲーションメニューの大幅な変更
  • Search ConsoleのURL削除ツールを誤って使用してしまった
  • Search ConsoleのURLパラメータを誤って使用した
  • noindexを誤って設定した
  • canonicalを誤って設定した
  • 重要なタイトル文を変更してしまった
  • ページを削除してしまった
  • ページ上に表示される日付に関して誤った設定を行ってしまった

これらは原因として考えられる一部の例で他にも順位に影響する要素はたくさんあるはずです。ウェブサイトの設定に関するミスの疑いがある場合には、一ヶ月以内で行った作業を確認し、設定ミスなどがないか確認しましょう。

ガイドライン違反となるスパム行為

ガイドライン違反となるようなスパム行為を行ってしまった場合、それが意図的であろうがなかろうがウェブサイトの評価を傷つける結果となります。
Googleはスパム行為に対しては、アルゴリズム手動による対策の2つの方法で対応しています。

手動による対策

手動による対策とは、ガイドラインに違反する行為に対して、Googleのスタッフが直接対策する事を意味します。
ウェブサイトやページの評価を下げ、またはインデックスから削除されて検索結果に表示されなくなってしまう事もあります。
Googleがスパムを見つける場合には、以下のURLからの第三者によるスパムレポートがきっかけとなる事もあります。

スパム、有料リンク、マルウェアを報告する

手動による対策の数は、労力もかかる為、少ないように思われるかもしれませんが、Googleの報告によると450,000件を超える月が少なくとも3回あります。
2016年に900万通、2017年は600万通を超えるウェブスパムに関するメッセージを送信しているようです。
同じ2017年の実績としては、Googleは約90,000件の検索スパムに関するユーザーレポートを処理したと報告されています。

また、ハッキングされたウェブサイトのうち80%以上を検知して検索から除外する事ができるようです。

Spotting and squashing spam on Search

手動による対策が行われているか確認する場合には、Search Consoleの左メニュー内の「検索トラフィック」⇒「手動による対策」をクリックします。
手動によるウェブスパム対策は見つかりませんでした。と表示されていれば問題ありませんので、何もする必要はありません。

Search Consoleで手動による対策を確認

手動による対策が行われている場合には、表示されているメッセージに従ってガイドライン違反となる要因を排除し、Googleに再審査リクエストを行います。

アルゴリズムによる対策

アルゴリズムによる対策は、プログラムによって自動でスパム行為を検知し、ウェブサイトやページの評価を下げ、または、無効化したりなどの対策が行われます。
手動によるスパムと異なり、メッセージが通知される事はありませんので、原因を特定することは難しいでしょう。疑わしい場合には、ガイドラインを再確認し、過去に行った違反行為も含めて全て排除しましょう。
ガイドライン違反やスパム行為といったやましい事を行っていなければ、全く心配する必要はありません。(通常のウェブサイト運営者であれば気にする必要はないでしょう。)

手動による対策やアルゴリズムによる対策の基準となる、品質に関するガイドラインについては、以下のページをご参照ください。

品質に関するガイドライン

順位変動の外部要因

アルゴリズムの変更

順位チェックツールで複数サイト登録していれば、全体的に順位が変動していることがつかめるかもしれません。また、アルゴリズムのアップデートなどによって引き起こされる順位変動をレポートしてくれるツールとしてmozcastは有名です。

アルゴリズムのアップデートの場合には、余程大きな修正でない限りはGoogleからのアナウンスはありません。仮に順位が下降してしまったとしても、このような事は当然起こりうるものとして認識しなければなりません。
アナウンスのないアルゴリズムのアップデートに関して、そのランキング要因を突き止めて対策するという事はほぼ不可能です。

Googleはユーザーを第一に考え、利便性の高い検索エンジンとなるように日々改良しています。
ウェブサイト運営者も同じベクトルで、検索ユーザーにとって価値のあるコンテンツを提供し、利便性を改善するように心がけましょう。この場合に出来ることはそれ以外に多くはありません。

ライバルコンテンツの出現

SEOを意識してコンテンツを作成しているのは、当然自分だけではありません。既存のライバルコンテンツの品質が改善された場合や、新たなウェブサイト運営者によって品質の高いコンテンツが作成された場合には、全体の順位に影響してくるでしょう。
ライバルコンテンツを確認したうえで、それ以上の品質となるようにコンテンツのリライトを行うか、対抗できる新たなコンテンツを作成する事を心がけましょう。

ユーザーの意図が変化してきた

一度特定のクエリで上位表示されたコンテンツであっても、時間とともにユーザーの調べたい意図は変化してきます。
上位表示されているライバルコンテンツの傾向や、検索ユーザーが疑問に思っている事を調べ、現在の検索ユーザーの意図にマッチするようにコンテンツをリライトしましょう。
検索ユーザーが疑問に思っている事を調べる際には、ターゲットとするクエリのサジェストキーワードを調べて見ましょう。以下のようなサービスはユーザーの意図をリサーチする際に便利です。

これらのツールは、SEOのキーワード選定の際にユーザーの使用するクエリを調査する目的でも使用します。

詳しくは、「検索キーワードの選定方法」をご参照ください。

コンテンツの情報が古くなってしまった

一度作成したコンテンツでも、1年以上経てば外部の環境も異なってきて、情報も古くなってしまいます。外部の環境の変化に左右されない、または変化がほとんどない普遍的な情報も当然ありますが、例えばWindowsのOSに関する記事や、ウェブの技術に関する記事に関しては情報の移り変わりが激しい為、すぐに情報が古くなってしまいがちです。
Googleは情報の鮮度が重要視されるクエリに関しては、QDFというアルゴリズムが影響して新しい情報を掲載しているコンテンツを優遇します。
作成したコンテンツを放置していた為に、ランキングが落ちてきてしまっている場合には、最新の情報を加えて再編集して改善しましょう。

既存コンテンツの更新方法については、「コンテンツの更新頻度と順位の関連性」をご参照ください。

新規コンテンツ公開直後の順位変動の理由

コンテンツの信頼性は、獲得したリンクや、ウェブサイト全体で公開しているコンテンツの質など、様々な要素で判断されていると推測されます。
新しいページでコンテンツを作成した際には、利用できる情報が限られている中で最善の推測にもとづいて判断しなければなりません。Googleからするとそのコンテンツが本当に信頼できるものかどうかすぐには判断できないようです。その為順位が不安定になる事があるようです。その後更に情報が増えれば統合し、突然本来の検索順位に落ち着きます。

その他のケースでは、情報の鮮度を評価するQDFアルゴリズムが作用している事もあります。また、いくつかのクエリでは、そのコンテンツの特性で長い間上位に表示されるものもあります。

John Muller氏も2017/10/20に同様の発言をしています。ページ公開直後は評価する為のシグナルが多くない為、複数回に渡ってコンテンツを見て、適正な順位を決めているようです。

English Google Webmaster Central office-hours hangout

ウェブサイトの品質によっても公開当初の順位は変化する

John Mueller氏のコメントによると、Googleが既にそのウェブサイトの事を知っている場合、品質が高く、良いコンテンツを持ち、ユーザーとの関連性があるウェブサイトであれば、新しいページの内容が(その時点で)わからなくても、おそらく問題ないはずだと判断する。
一方でスパムのようで、品質の低いウェブサイトが、新しいページを追加した場合には、最初の順位付けに関して注意深く扱うようです。

English Google Webmaster Central office-hours hangout

品質にこだわった記事を作成していれば、月に1記事のペースで、少ないページ数であっても、目的のクエリで上位表示に成功し、トラフィックを獲得できているケースは複数あります。
そのような品質にこだわったウェブサイトは、新しいコンテンツを作成した際にも比較的早く上位表示される傾向があります。

一方で、はじめにインデックス数ありきで、それなりの品質の記事(高い品質でもなく、低い品質でもない)を複数作成してから、質の高い記事を作るように方針転換したケースの場合には、徐々には順位が改善されるものの、評価が落ち着くまでに時間がかかってしまったケースも見かけた事があります。
John Mueller氏のコメントとどちらのケースも当てはまると感じます。

順位変動で一喜一憂してしまうと、落ち着いてコンテンツを作成できません。
順位は気になりますが気にしすぎても精神面で不健康になります。そもそもライバルよりも圧倒的に優れたコンテンツを提供できていない限りは、順位は安定しません。

順位が上がっても、下がっても、変化しなくても、常に検索ユーザーに対して誰よりも優れた体験を提供できるように改善していく事が最も大切です。Googleと同じように、ユーザー第一の心構えでウェブサイトを運営していきましょう。

お役に立ちましたか?シェアして頂けると嬉しいです!

機能豊富なSEO管理ツール

企業のウェブ担当者・コンサルタントに最適
貴社の予算に合わせた柔軟な料金体系
サブアカウントを作成して情報共有の効率化

この記事を書いた人

SEOは考え方はシンプルですが、いざ実践するとなかなか思うようにいきません。
当ブログでは、読者の方に成功も失敗も合わせて情報を共有し、同じような悩みを解決できればという思いで運営しています。
著書:「最強の効果を生みだす 新しいSEOの教科書」(技術評論社)

コメント

コメントする

目次
閉じる