低品質ページを大量削除したら検索順位が上がったお話し

1年前の記事だけど面白いものを見つけた。

https://www.similarweb.com/blog/improve-seo-ranking

similar webといえば競合分析などができるツールとして知られるが、そのサイトも大量のページを保有するようだ(たとえば、アダルトサイトの分析結果ページなどもあったとのこと)。

当時の状況

そのため、全世界の各種のページがあったが、それらがindexされて検索結果に表示されていると、アクセスが来てもその多くは検索意図と合致しない。アダルトサイトを検索しているユーザーは、そのサイトの分析結果なんて見たくもないだろう。

何をしたか

このような、アクセスはあるけれど低品質なアクセスに対応するためにsimilar webが行ったことはGoogle Analyticsを使用して自然検索流入のセグメントにおいて非常に低いエンゲージメントのページを割り出すこと、そしてSearch Consoleでは表示回数は多いがCTRが低いものを把握した。

これらの条件に当てはまるページのアクセスを分析し、ビジネスに貢献しているのか見て、していないようであればno indexをした。

結果

あたりまえだが、自然検索流入数は減少した(グラフを見たところ、30%以上減っているようだ)。しかし、直帰率・ページ/セッション・セッション時間はどれも30%以上改善した。検索順位・CTRも20%以上向上した。

コメント

"自然検索流入数"は多くのサイトでKPIとして設定されているのではないだろうか。この場合、本件のような、サイト全体にとってはプラスとはいえ、ページを減らすことには抵抗があるだろう。similar webにとっては大きな決断だったと思われる。

低品質なページがあってもSEOに大きな影響はないと言われているが(むしろ、ある程度は低品質ページがあって当然)、サイト管理においては大きな労力を使うことになる。それに、低品質ページを管理しないで放置した結果"大量"に溜まってしまうとむしろマイナスになりかねない(大量の低品質ページはサイト全体の評価に影響があると考えられる)。

このような大量の低品質ページは、CGMのような自動生成テンプレートが存在するサイトでよくみられる。懸念されるのは以下の3点である

  1. クロールバジェットの非効率性
  2. 自動生成による低品質ページがindexされ、サイト全体の評価にマイナスの影響を及ぼす
  3. 低品質ページの生成により、サイト全体のユーザー行動が悪化する

similar webはまさにそのような状況下でインデックス制御によって検索パフォーマンスを改善した例といえる。このようなサイトたくさんありそうだな....