某氏の日記に検索よけのことが書いてあったので、自分が行った検索よけの手法を記録。
■metaタグ
HTMLのヘッダー部分に以下の1行を記述
<meta name="robots" content="noindex,nofollow,noarchive">
記述文法がXHTMLの場合
<meta name="robots" content="noindex,nofollow,noarchive" />
検索よけしたい全てのファイルのヘッダーに記述。
ただ、効果は「しないよりはまし」程度のものと・・・(他の手法もですが)
■robots.txtの設置
以下の3行を記述したテキストに「robots.txt」と名前をつけて保存。
サーバーにアップします。
記述行は2行ですが、最後の行は改行しているので3行です。
######ココから######
User-Agent: *
Disallow: /
######ココまで#######
特定ディレクトリを指定したい場合は、「Disallow」の後に相対パスでそのディレクトリを指定。
■robot.txt
中身は「robots.txt」と同じ。念の為、このファイルもサーバーにアップしました。
■.htaccessの設置
これは、私が使っているところは大丈夫でしたが、サーバーによって使えないところが多いので、事前に確認のこと
テキストに以下の情報を記述
########ココから############
SetEnvIf User-Agent "Googlebot" shutout
SetEnvIf User-Agent "Slurp" shutout
SetEnvIf User-Agent "msnbot" shutout
order Allow,Deny
Allow from all
Deny from env=shutout
########ココまで############
「robots.txt」と同じく、最終行は改行すること。
上記内容のファイルをサーバーにアップロード後、「.htaccess」に名称変更。
私は行いませんでしたが、この方法なら特定のリンク元からのアクセスもシャットアウトできるはずです。
いまは、情勢から考えて以下の行も加えた方がいいかも・・・
SetEnvIf Referer "^http://baidu\." shutout
SetEnvIf Referer "^http.*\.baidu\." shutout
上記追加テキストは、百度からのアクセスを制限するのが目的です。
まとめると
########ココから############
SetEnvIf User-Agent "Googlebot" shutout
SetEnvIf User-Agent "Slurp" shutout
SetEnvIf User-Agent "msnbot" shutout
SetEnvIf Referer "^http://baidu\." shutout
SetEnvIf Referer "^http.*\.baidu\." shutout
order Allow,Deny
Allow from all
Deny from env=shutout
########ココまで############
現状「.htaccess」は、見出しページの優先順位をサーバー側のデフォルト設定から変更するのに使用しています。
.htaccessに関してより詳しい内容は、こちらをご参考にどうぞ
ミケネコ研究所 .htaccessリファレンス
http://mikeneko.creator.club.ne.jp/~lab/web/htaccess/
以上4つ(実質3つ)の手法、認証制をとらずに、プライベートページのようなものを作るのにはわりと有効な手段ではなかろうかと。
というより、プライベートページ作るなら、結果はともかくとして、検索よけくらいは考えておかないと。本当は、認証制にするのが一番安全率は高いんですけどね。
.htaccessが使えれば、Basic認証も可能です。
以上、「ねごとや」を試験運用中に行った検索対策の一覧です。
一応、半年ほどの間は、検索エンジンに「ねごとや」はかからず。逆に解除後一週間ほどして「ねごとや」で検索をかけたら、うちのサイトが検索結果の最初に表示されたので、ある程度効果はみこめるのではないかと。
さて、最大の問題は・・・
私はこの逆のこと、アクセスアップの手法については、全く無知だと言うことだ(爆)
いや、まぁいまの状態でもいいんだけど(笑)
↑マイペースという意味で。