こんにちは!
WEBが苦手な老害経営者のTAKASHIです!
本日は僕のWEBサイトにお越しいただき、ありがとうございます。
中小企業のビジネスオーナーの方へ!
WEBマーケを学んでいく過程の中でSEO対策をしていくとクロールとかインデックスとか良く分からない言葉を耳にします。
そこで、今回はGoogleインデックスって何?
なんかSEO対策で調べていく時にところどころ出てくる言葉だな~
って思いませんか?
今回はそのインデックスについてお伝えしていきます!
是非、最後までお付き合い下さいね~
Googleインデックスとは!
インデックスとは検索結果が決まるまでの1つの工程になります。
「検索結果」はどういう風に決まるかと言うと、ある順番があります!
①クロール→②インデックス→③ランキングと3つの工程があります。
クロールとはGoogleが作った自動的にWEBページに巡回するクローラーがWEBページを巡回して情報を集める事をクロールといいます。
インデックスはGoogleのデーターを集めているデーターセンターに登録します。
WEBページの情報を登録する事をインデックスと言います。
この情報をGoogle独自のアルゴリズムルールによって順位付けをして検索結果の
ランキングをする。
この順番で検索結果は出来ています!
当然ながらインデックスされなければせっかく記事を書いても検索結果に出ることは無いので売り上げが上がる事やPV数が伸びることもありません。
インデックスされるということはSEOで集客してくスタートラインともいえるわけですが、頑張って記事を書いたのに全然記事がインデックスされないと言うこともあります。
インデックスされない人の原因というのは以下の↓7つのポイントに当てはまっているケースが多いです。
記事がインデックスされない7つのポイント!
①noindexを設定している
すべて画像で作成されたようなランディングページのようなものは、インデックスされてしまうとサイト全体のSEO評価が悪くなってしまう傾向になるのでこういったページは
クロールには来て欲しいのですが、検索結果には出して欲しくない場合もあります。
そんな時は「noindex」を設置するようにして下さい。
また、誤ってnoindex指定をしている場合も、インデックスされません。
HTMLファイルのmeta robotsタグ内にnoindexの記述をすると、インデックス登録そのものを拒否する設定になってしまいます。
②ガイドライン違反
ガイドラインに違反したWEBサイトやページはペナルティの対象になります。
※過激なコンテンツだったり法に触れるようなコンテンツはもちろんダメです!!
やりがちなガイドライン違反4つ!
自動生成されたコンテンツ
自動生成されたコンテンツとは自動生成によって検索ランキングを操作するように作られた目的のコンテンツのことです。
多くの場合自動生成コンテンツに関してはテーマやトピックに役立つものでなく意味をなさない文章だったりコピーされた文章とか無断で生成されたコンテンツをつなぎ合わせたものになります。
独自の付加価値を持たないアフィリエイト記事!
公式ページからの文章を引用するだけのページだったり、SNSの口コミを入れただけの
ページなどは意味をなさないコンテンツとしてみなされてしまうので、低品質なコンテンツになります。
無断複製されたコンテンツ!
そのまま、無断で複製されたコンテンツです。
誘導ページ!
ほとんど同一の内容でテキストの一部を変更しただけのページを作ってしまってそれぞれのページで検索上位を狙って流入を狙うようなサイト!
仮に現状ガイドラインに違反してしまっていてリライトをして改善した後にペナルティを解除したいという方はペナルティ解除の再審査リクエストを送るようにして下さい。
③低品質なコンテンツ
低品質なコンテンツというのは簡単に言うとユーザーにとって必要な情報や有益な情報がまったくなくてユーザーのニーズを満たせなくて満足してもらえないような記事のことを低品質なコンテンツと言います!
Googleは常にユーザーの課題解決が出来ることを望んでおり、ユーザーが欲しい情報をすぐに受け取れるプラットフォームである事を目指しています。
当然ユーザーニーズを満たす事が出来ないコンテンツは検索結果に表示させたくない訳で、
低品質なコンテンツが積み上がりサイト内でインデックスされない記事が増えるほど、
SEO全体の評価も落ちていってしまいます。
SEOの評価を上げたいばっかりに質よりも量という運用方法を取ってしまうとSEOでどんどん成果が出なくなるという悪循環に陥ってしまいます。
なので、量よりも質の運用方法を重視して下さい!
次に、低品質なコンテンツと判断されそうな場合でも実は低品質と見なされないような
ケースも存在します。
どんなコンテンツかというと…
「例えば」
文字数の少ないコンテンツです、ユーザーのニーズを満たすコンテンツであれば例え文字数が500文字だったとしてもユーザーニーズを満たした高品質なコンテンツであるといえます。
良くSEOの良し悪しだったり、検索順位を上げる為に文字数が多いか少ないかで判断するという話を聞いたりしますがそれは関係ありませんし、逆に見時数が多いから高品質であるとも限りません!
次に、リンク一覧になっているようなカテゴリーページです。
簡単なリンクが掲載されただけのページであってもそのページにユーザーが訪問して自分が探しているページに着きやすいページであればGoogleからすれば回遊率の高いコンテンツとなるわけで高品質なコンテンツとして認識されます。
Googleサーチコンソールを開いて、カバレッジの項目をクリックして、クロール済、
インデックス未登録の記事がある場合、低品質なコンテンツと判断されている可能性ば高いです。
そういった場合はリライトしてユーザーニーズを満たしたコンテンツに改善するようにして下さい。
④リンクの構造が貧弱
クローラーはリンクを辿りながらWEBサイトの各ページを訪問していきます。
そして訪問した後にその情報をGoogleのデーターベースに持ち帰り検索結果に表示させる流れがあります。
では、「リンク構造が貧弱」ってどういう事??
●サイト設計が甘い
●(新規ドメイン運用初期)サイト内に数ページしかない
●各、記事を繋ぐ内部リンクが少ない
●被リンク数が少ない
など、こういったインデックスされないケースをよく見ることがあります!
⑤canonicaiタグでURLの正規化指定先が間違えている
「canonicaiタグ」とは完全に同じ、もしくは非常に似たページがサイト内にある場合に
使うタグのことを言います。
検索エンジンは同じようなページが存在しているとどちらのページを正しく評価していいか分からなくなるので、「canonicaiタグ」を使えば指定する為の具体的な活用方法です!
「例えば」
AのページとBのページがあったとします、ここでBのページではなくAのページの方を
正しく評価して欲しいことをGoogleに伝えられるタグという事です!
⑥robots.txtでクロール拒否
「robots,txt]とは、クローラーの動きをコントロールするものです!
記事単位、ディレクトリ単位、クロール単位などでクロールを制限することが出来ます。
これに気づかないで地味にやる人も多いので必ず確認するようにして下さい。
「例えば」
ワードプレスであればこういった画面の中で「robots,txt」使用みたいな
チェック画面が記事ごとにあると思います、ここにチェックマークを入れてしまうとその記事にクロールが来なかったりする可能性も高くなりますので必ずチェックが入って無い事を確認してから公開するようにしましょう。
そもそも「robots,txt」とはどういうケースで使うのか?というと大規模なサイトで使う
ケースが多いです。
5000記事以上ページが公開されていたりすると全てのページにクロールが平等に来ないので評価して欲しいページにクロールを来てもらいやすくする為に評価して欲しくないページに「robots,txt」を設置することによってクロールバジェットを適切にコントロールすることが出来るようになります。
これが、本来の「robots,txt」の使い方になります。
⑦過去にペナルティを受けている
SEOの知見がたまってくると、中古ドメインでの運用がいいのではないか?
と、考えるのではないでしょうか?
でも…その中古ドメインが過去にペナルティを受けていた場合、新規で記事を書いたとしてもペナルティ対象のドメインとなっている為にSEOの検索結果にインデックスされなかったりサイト全体のSEO評価が伸びないというケースも出てきます。
それなので、中古ドメインはあまりお勧め出来ないという事になります。
まとめ
いかがでしたでしょうか?
クロールもインデックスもSEOで上位表示する為にはとても大切な項目になってきます。
上手にクロール、インデックスしてもらえて、初めてSEOのスタートラインに着くことが
出来ます、上手にインデックスされるようにお伝えしてきた事を理解してインデックスされるようSEO目指して頑張りましょう!
最後までお読みいただきましてありがとうございました(^_^)/~