1年でアクセス数を3倍にするコンテンツマーケティング戦略

が紹介されている。

searchengineland.com

概要

毎日何百万ページも作成されており、その中で抜き出るようなコンテンツを作成することが必要。その方法としては

  • 難易度が低いキーワード(ロングテール)の優先度を上げる
  • コンテンツの階層化(パンくずリスト)と内部リンク最適化
  • リンクの獲得可能性の最大化
  • 既存コンテンツの改修

がある。

キーワード選定

「KWボリューム」「難易度」「アクセスの価値/コスト」が3つの基準。「難易度」に関してはSEMrushで調べるが便利とのこと。手動で難易度を確認する場合は、KWの1ページ目のSERPsを見て、「ブランドページ」「有名サイト」「商品ページ」などが多く存在する場合はコンテンツで勝負できる可能性は低い(=難易度が高い)と想定される。

コンテンツの階層化と内部リンク

ファネルのようなイメージで、上から下までカバーするコンテンツを作成する。上から下までを1つのコンテンツではなく複数でカバーするイメージ。「健康ドリンク>水素水 効果>水素水 口コミ」みたいなイメージかな。

とくにミドルの階層のコンテンツはシェアされやすいし、一度接触してボトムのKW検索しているユーザーへのアドバンテージとなる(一度接触しているから)。また、ファネルの役割のためそれぞれの内部リンクが欠かせない。

リンクの獲得可能性

リンクはSEOにとって重要である。

  • KWボリュームは、リンクの獲得可能性を示唆する1つの指標(少なければ、だれもその話題に関心がない)
  • 上位表示しているユニークドメインの数
  • 上位表示しているページの種類

簡単にできるリンク獲得は、すでに似たようなページにリンクしている人に「このページの方がもっといいから、こっちにもリンクしてくれますか?」ということである。

競合と比較して良いコンテンツを作るには「フォーマットを変える(動画、画像にするなど)」、「ページスピードの改善」「情報元を信頼できるものにする」「情報の最新性を保つ」などがある。

既存コンテンツの改修とアップデート

新しくコンテンツをつくるだけではなく、改修も必要。いままでのハウツーコンテンツに動画を足すなどすれば、パフォーマンスが大きく改善するかもしれない。

または、SERPsを見て特定のコンテンツタイプが多いようであればそちら寄りにアレンジしてもいいだろう。「最終更新日」などの表示も忘れずに。ユーザーは意外と気にしている。

コメント

たくさんの会社がコンテンツマーケティングに取り組んでいるが、成果が出ているのはごく少数だろう。多くの場合、問題は「運用方法」に問題がある。キーワード調査せずに記事をつくり、大量にアップ、しかしアクセスは集まらない...。または、書ける人がいなかったり書いてもクオリティが低くて公開まで時間がかかりコストだけが増えていくケースもある。

そもそもの原因としては、戦略の部分で大して考えずにスタートしているのだ。これではうまくいくはずもない。

この記事で紹介されているのは、実際のライティングスキルではなく上のレイヤーである戦略の部分である。そもそも、"狙いたいキーワードのSERPsを確認している人はどれだけいるのだろうか"。たいていの場合、「このキーワードはいける!」と勝手に思っているだけである。

SEOは結局は競合との比較で決まる。自分が狙う市場(=KW)においてどういった競合がいるのか、内容は何かなどを確認しないままスタートすることはNGだ。ぜひ本記事で紹介されている"戦略"を考えてから実践してほしい。

シャドウバースの環境の歴史をまとめてみた(スタン~ワンダーランドまで)

2017年9月28日に第6弾の拡張パックである「星神の伝説」がリリースされる。シャドウバースがリリースされてすでに1年3ヶ月経過したということになる。

そこでここでは、いままでの環境の歴史を振り返ってみたいと思う。ちなみに、筆者はサイゲームズの人間ではないので100%正確なデータではないことに留意されたい。

 

続きを読む

検索順位に(直接)影響しない10のこと

moz.com

といったタイトルで記事が紹介されている。以下はメモ

  1. ドメインエイジ
    昔つくったサイトが上位にいる!という人は、それだけリンクやコンテンツが資産として溜まっているということである。
  2. Google Appの使用可否
    GmailやGAを使用していようがいまいが関係ない
  3. ソーシャルシェア
    シェアの結果としてブランドへの言及やリンクが増え、上がることはある
  4. 直帰率/滞在時間
    滞在時間などが短くてもユーザーの検索目標を達成できるなら良い
  5. 技術要件
    Reactなどを使っていても、ユーザーが見るコンテンツをGoogleが見れており、正常にクロール&インデックスできるなら良い
  6. SERPsの右側に表示されるナレッジパネルの有無
    表示されたからといってサイト全体の検索順位が上がるわけではない
  7. 共有ホスティングの使用
    ページスピードなどに影響しなければ問題ない
  8. デフォルトメタの仕様
    "index,follow"といったデフォルトを使用してマイナスにもならなければプラスにもならない
  9. ページタイトルとサイトタイトルを分ける記号
    「ページタイトル | サイト名」「ページタイトル:サイト名」だろうが関係ない
  10. hタグの使用方法
    CSSの影響で本来h1のところにh2やh3を使用してしまっても問題ない

そのほか、ページのコメント欄では「ランキング要素と言われているが実は関係ないこと」について以下を挙げている。

....など。メタディスクリプションではユーザーが「以前、メタディスクリプションしか変えていないのに順位が平均して10上がった」と述べられているが、それに対しRandは「ディスクリプション変更の結果としてCTRが上がったり、検索結果に直帰→他ページをクリックするユーザーが減ったりしてそれが間接的に順位に影響を与えた」と言っている。

コメント

「それで上がるわけないだろww」「いや、上がるんじゃね?」が混ざっているような気がする。個人的に上がる可能性があるのは「直帰率/滞在時間」「ソーシャルシェア」の2つ(もちろん、どちらも直接的に影響するわけではないけど)。

広く認知されればアクセスが集まり、Googleに認知されて検索にひっかかりやすくなる気がするんだけどなー。

直帰率/滞在時間」はページによるけれど、テキストコンテンツとはかなり相関があるんじゃなかったかな。ちなみに、「GAの直帰率」などのデータは使用していないとは思うが、Google独自で取得しているユーザー行動のデータ(直帰率や滞在時間に近い指標)は使用されていると妄想w

木村さんのSEOコラムを読んで

面白いなあ

ameblo.jp

サイバーエージェントの木村さんの記事である。木村さんと言えば、個人的には辻氏、鈴木氏、渡辺氏を含めて「SEO四天王」に属すると思う(爆)(そのうち2人は現/元アイレップw)

彼のSEO好きはすごい。セミナーなどに行けば彼がどれだけSEO(そしてGoogle)を愛しているかがわかる。それがわかるからこそ、この記事の意味がより大きなものとなる。

コメント

この記事を読んで思ったことは、「その前提はわかるけど、みんなその方法が知りたいんだよ!」ということ。

「ユーザーのためにコンテンツをつくれ」「SEOは検索体験最適化だ」と、どのセミナーに行っても聞くが、みんなそんなことは知っているのである。問題は、「検索者にとって最適化されているかを、どう判断すればいいのか」である。みんなそれを知りたいのではないかね。

自身がユーザーのためになると思ってページにテーマやリンクを足して、デザインも変えたけど順位が下がってしまった場合、どう方向転換すればいいのか?

もちろん、その人が考える"ユーザーのため"が間違っているのだけど、それをどう認識させればいいのかね。

CTR、直帰率、リンクの数と質、テーマの網羅性、、、いろいろな指標が直接的/間接的にランキングに影響しているといわれるけど、どれが自サイトにとって一番インパクトがあるのかが知りたいわけですよ。

検索者に最適化した結果、直帰率やCTRなどが改善してリンクを獲得するわけで、因果が逆なのは承知ですが、それでもいいから自サイトのどこに伸びしろがあるかを知りたいわけですね。それがWEB担当者の仕事なのだから。

さて、あーだーこーだ言ってきたわけですが、個人的にまず確認するべきは以下だと思うんですよね。

・内部SEO構造(キーワードを意識しているか、URLの正規化などはできているか)

・コンテンツ(競合と比較して不足テーマはないか、差別化できているか)

・リンク(他サイトからナチュラルリンクを獲得できているか)

もし、これらを徹底的に考えて、それでもこれ以上できることがなければ、ヒートマップなどをつかって「ユーザーにサイトを最適化していく」ってことでしょう。

この場合、最適化していくというのは「ユーザーが注目しているブロックがちゃんと読まれる個所にあるのか」「下までスクロールされているのか」「ネクストアクションを起こしてくれているか」を見ていく。

木村さん(それ以外の四天王の方も)がおっしゃることは100%正論です。「ユーザーのためになるサイトをつくる」、これに反論する人はいないでしょう。ただ、ビジネスとしてSEOをやっている以上、一歩踏み込んだ具体例が欲しいわけですな(私はこうやってユーザーに最適化しているか確認していますよ、など)。

SEO情報ウォッチまとめ【9月3週】

WEB担当者Forumで毎週楽しみのコーナーが鈴木謙一氏による「SEO情報ウォッチ」である。今週はこれ。

web-tan.forum.impressrd.jp

毎週様々な情報ソースからピックアップしてくれるので助かる。

さて、そのようなSEO情報ウォッチから気になったものを取り上げる。

グーグルは検索結果で非HTTPSページに「保護されていない」警告を付けるようになるの?

HTTPS、セキュリティ関係はモバイルファーストと並ぶ最近のトレンドだろう。いままでは、素人の私にとってはHTTPS/HTTPのサイトの違いなんてわからないが、ブラウザ上で「保護されていない通信」なんて出たらそのサイトから離脱するだろう。SEOどころの話ではない。HTTPS化は必須だ。

インデックスさせたいページが決まっているならrel="canonical"と内部リンクのURLを一致させること 

 URLの正規化の必要性は多くのサイトで見られる。URLが統一されていない、canonicalが必要なページなのに設定されていない、パラメータ制御されていない、リンク先のURLが統一されていない、など。

こういったようなミスは非常にもったいない。ページのパワーが分散されてしまうし、結果として内部リンクで供給するパワーも低くなってしまう。

 

サイトフッターにリンクが20本あるのはSEO的にどうなのか?

 これは面白い。フッターに限らず、いわゆる"リンクの価値"はどうやって測るのかはWEB担当者にとっては難しいだろう。これを読んだとき、ninjasのJim Boykinがカンファレンスで「質の高いリンクは、ユーザーがクリックするリンクだ」と言っていたのを思い出した。

そもそも、フッターリンクはリンクとしての価値は低い(オリジナリティがない)ので、SEO対策として行うのもどうかと思うが....。

検索順位0位とは?SEOとサイトにとって重要?

「検索順位0位」という言葉がある。SEOは検索順位1位を狙う施策であるが、最近の海外カンファレンスなどでは「0位」という単語がよく出てくる。

この「0位」はリッチな検索結果のことである。たとえば、「●● とは」「巨人 結果」などで検索するとURLのリストだけではなく、一番上に装飾された結果が出てくる。

f:id:econseo:20170912114150p:plain

「巨人 結果」で検索した場合の画面

この場合、1位のURLにアクセスしなくても結果がわかるため、ユーザーはそこで検索行動を終えるか、詳細を見るためにその0位に表示されているリンクをクリックする。

するとどうなるか?「巨人 結果」で1位になっていたとしてもアクセス数は(0位が表示されていない場合と比べて)上がらないのである!

このような0位にリッチな結果が表示されるクエリは増加傾向にあるらしい。よって、SEOは単純に1位になることを考えるだけではなく、クエリによってはリッチな検索結果に表示されることも努力しなければならないと説明しているのが以下の記事。

www.stonetemple.com

この記事の著者であるEric Engeは「リッチな検索結果」の研究に関する第一人者である(そういう研究分野があるのかと驚く人もいるだろうw)。何回か「リッチな検索結果に取りあえげてもらう確率を高めるには?」といったテーマでセミナーをしている。

とはいえ、記事によるとどのページをリッチな検索結果に使用するかは、ユーザーの反応を見るためか頻繁に変えているようである。そして、リッチな検索結果に使用されるスニペットは、通常表示されるスニペット(タイトル、ディスクリプションなど)を拡張したものが多いとのことで、しっかりとスニペットを設定するようにと付け加えている。

コメント:

構造化マークアップを使用したリッチスニペットやリッチな検索結果の話題は最近多い。「ユーザーの検索体験」という意味では大事な要素だろう。とはいえ、構造化マークアップをしたからアクセスが増える、売上が増える、という話ではない。あくまでも、検索結果でレビューの星を表示させたりすることができるだけである。CTRが上がることで間接的に検索順位に好影響を及ぼすことはあるかもしれない。

また、「●● とは」のコンテンツで0位を取ったからといって、そのクエリのユーザーたちがCVに結びつくかと言われると難しい。そのため、スニペットは筆者にとってあまり好きなテーマではないが、これは扱っている商材に寄るのかもしれない。ECサイトやレビューサイトであれば構造化マークアップは必須だろう。

0位になったらアクセスが爆増しました!という話は聞いたことあるが、売上が上がりました!は聞いたことないな。どこかにないのかな。

低品質ページを大量削除したら検索順位が上がったお話し

1年前の記事だけど面白いものを見つけた。

https://www.similarweb.com/blog/improve-seo-ranking

similar webといえば競合分析などができるツールとして知られるが、そのサイトも大量のページを保有するようだ(たとえば、アダルトサイトの分析結果ページなどもあったとのこと)。

当時の状況

そのため、全世界の各種のページがあったが、それらがindexされて検索結果に表示されていると、アクセスが来てもその多くは検索意図と合致しない。アダルトサイトを検索しているユーザーは、そのサイトの分析結果なんて見たくもないだろう。

何をしたか

このような、アクセスはあるけれど低品質なアクセスに対応するためにsimilar webが行ったことはGoogle Analyticsを使用して自然検索流入のセグメントにおいて非常に低いエンゲージメントのページを割り出すこと、そしてSearch Consoleでは表示回数は多いがCTRが低いものを把握した。

これらの条件に当てはまるページのアクセスを分析し、ビジネスに貢献しているのか見て、していないようであればno indexをした。

結果

あたりまえだが、自然検索流入数は減少した(グラフを見たところ、30%以上減っているようだ)。しかし、直帰率・ページ/セッション・セッション時間はどれも30%以上改善した。検索順位・CTRも20%以上向上した。

コメント

"自然検索流入数"は多くのサイトでKPIとして設定されているのではないだろうか。この場合、本件のような、サイト全体にとってはプラスとはいえ、ページを減らすことには抵抗があるだろう。similar webにとっては大きな決断だったと思われる。

低品質なページがあってもSEOに大きな影響はないと言われているが(むしろ、ある程度は低品質ページがあって当然)、サイト管理においては大きな労力を使うことになる。それに、低品質ページを管理しないで放置した結果"大量"に溜まってしまうとむしろマイナスになりかねない(大量の低品質ページはサイト全体の評価に影響があると考えられる)。

このような大量の低品質ページは、CGMのような自動生成テンプレートが存在するサイトでよくみられる。懸念されるのは以下の3点である

  1. クロールバジェットの非効率性
  2. 自動生成による低品質ページがindexされ、サイト全体の評価にマイナスの影響を及ぼす
  3. 低品質ページの生成により、サイト全体のユーザー行動が悪化する

similar webはまさにそのような状況下でインデックス制御によって検索パフォーマンスを改善した例といえる。このようなサイトたくさんありそうだな....