robots.txt
更新日:
robots.txtとは
robots.txtは、検索エンジンのクローラー(ロボット)に対して、ウェブサイトのどのページをクロールするかを指示するテキストファイルです。
クローラーはインターネット上のページの情報を収集する機能を持っています。
robots.txtの設置場所と機能
robots.txtは、ウェブサイトのルートディレクトリに設置されます。
このファイルを使用することで、ウェブサイトの特定のページやコンテンツのクロールを拒否する設定が可能です。
以下はrobots.txt
の使い方の基本的な例です。
すべてのボットのアクセスを許可する
User-agent: *
Disallow:
この設定では、User-agent: *
がすべてのボットを指し、Disallow:
が空であるため、すべてのページのクローリングが許可されています。
特定のボットのアクセスを禁止する
User-agent: BadBot
Disallow: /
ここではUser-agent: BadBot
で特定のボット(この例では「BadBot」)を指定し、Disallow: /
でサイト全体へのアクセスを禁止しています。
特定のディレクトリへのアクセスを禁止する
User-agent: *
Disallow: /private/
この設定では、すべてのボットが/private/
ディレクトリへのアクセスが禁止されています。
特定のファイルへのアクセスを禁止する
User-agent: *
Disallow: /private/file.html
ここでは、すべてのボットが特定のファイル(この例では/private/file.html
)へのアクセスが禁止されています。
複数のルールを組み合わせる
User-agent: *
Disallow: /private/
Disallow: /tmp/
User-agent: Googlebot
Disallow: /no-google/
この例では、すべてのボットが/private/
と/tmp/
ディレクトリへのアクセスを禁止されています。
また、Googleのクローラー「Googlebot」だけが/no-google/
ディレクトリへのアクセスを禁止されています。
クロール制限の活用
robots.txtは、主にクロール制限を行う際に活用されます。
これにより、ウェブサイト運営者は検索エンジンのクローラーに対して、自サイトにとって重要なコンテンツを中心にクロールさせることができます。
robots.txtの注意点
robots.txt
はあくまでボットに対する「お願い」であり、強制力はありません。
多くの正規の検索エンジンはこれに従いますが、悪意のあるボットは無視することがあります。
また、ファイルは公開されているため、誰でも閲覧することができます。
したがって、機密情報を含むディレクトリやファイルを列挙することは避けるべきです。
この情報は役に立ちましたか?(フィードバック)
この記事の執筆者・監修者。当サイトの運営者で、目からウロコのSEO対策「真」常識の著者。主にSEO、SXOの考え方について、現場での経験から、どのようにGoogle検索エンジン対策を行えばよいかを具体的に解説できるよう努めています。再検索キーワード調査、トピッククラスター構築ツール、共起語調査ツール、競合キーワード調査ツール、キーワード候補調査ツール、検索ボリューム調査ツール、見出し抽出ツール、サジェストキーワード調査ツール、MEO順位チェックツールの考案者であり開発者。更に詳しくはプロフィールをご覧ください。SEO対策のお仕事に関するご依頼・お申し込みは、こちらのフォームから承っております。