クローラー対策:robots.txtの仕組みと使い方とは

robot

Google検索エンジン最適化スターターガイド」でSEOの基礎学習をしていきます。

今回は「robots.txtを効果的に設定しよう」についてアウトプットしていきます。

robots.txtとは?

robots.txtとは、検索エンジンに対して

クロールするかどうかを導くためのファイルです。

robots.txtでスクロールを許可しない設定になっている

URLには、検索結果に表示されません。

使い方は、robots.txtという名前で

各Webサイトのルートディレクトリに置きます。

そうすると、検索エンジンが認識できます。

robots.txt の書き方

robots.txt の書き方は決まっています。

「User-agent」と「Disallow」という二つのキーワードを

組み合わせてクロールの許可および拒否を設定します。

具体的な記載の仕方は、Googleサポートをご覧ください。

ネットビジネス的にはあまり関係ない

通常のブログ使用において、robots.txt はほとんど意識する必要はありません。

またネットビジネスの場合は、情報発信してお金を稼ぐわけですから、

検索結果に載せないで選択肢はほとんどないでしょう。

このブログを読んでいる方のほとんどはrobots.txtを意識する必要はありません。

私も全く意識していません。

robots.txt以外にも検索エンジンにクロールさせない方法はある

robots.txt に書き込む以外にも、検索エンジンにクロールさせない方法はあります。

・noindexメタタグを記載する

・ .htaccessファイルを作る

などです。ここでは詳しく述べませんが、興味がある方は調べてみてください。

それぞれ設定方法を間違うと、検索エンジンにとっても管理者にとっても

不利益なことになってしまいますので、よく理解した上で対応するようにしましょう。

基本的にネットビジネスでブログを運営する程度であれば、あまり関係のない話です。

コメント

タイトルとURLをコピーしました