解析サイトCuteStat.com

ブログのタイトル「dtn 運営ブログ」で検索してみたところ、検索結果にこのブログとタイトルがほぼ同じサイトがすぐ下あたりにあることに気が付きました。説明文の方は全く同じです。

タイトルがほぼ一緒で説明文は完全に一緒の検索結果がすぐ下に

タイトル:Blog Dtn : dtn.jp運営ブログ – 2002年から始めた個人サイトdtn….

blog.dtn.jp.cutestat.comのタイトル

タチの悪いCuteStat.comの解析ページ

リンク先を見てみると、ドメインの検索エンジンバックリンクやインデックス数、一日あたりの収益推定値といった値が並ぶページが出ており、どうやらドメインの解析サイトといったもののようでした。広告もペタペタ張ってあるので、そっちがメインのサイトかもしれないです。

一日0.15$、推定価値8$とのことでした

このサイトのタチが悪いところが、解析ページのTITLEやDESCRIPTIONがそのまま当サイトから抜き出した文字列を表示させており、faviconまで引っこ抜いて同じものを設定するという手の込んだパクリ仕様にしてくれているところです。

下記は当ブログドメインのCuteStat解析ページで使われている<head>タグですが、タイトルは収集した当ブログの文字列をほぼそのまま使ってしまっており、<meta =”description”>タグは完全に同じ文字列を表示させてしまっています。

弱小ブログの当サイトのブログタイトルでググると、このCuteStat解析ページの方がアクセスがあるのか、かなり上位に表示がされてしまうという悲しい状況になっていました。

<html>
<head>
    <meta charset="utf-8">
    <title>Blog Dtn : dtn.jp運営ブログ – 2002年から始めた個人サイトdtn.jpの開発運用ブログです</title>

    <meta name="description" content="PHPとSQLとYahoo API、Google APIで制作したディレクトリ型検索エンジンdtnの開発運用ブログです。サイト開発や運営、プログラムやSQL、日々の出来事や雑記を不定期で記録しています。">
    <link rel="canonical" href="https://blog.dtn.jp.cutestat.com">
    <link rel="icon" type="image/png" href="https://favicon.cutestat.com/blog.dtn.jp">

robots.txtでクローラーを避ける

気分が悪いので、データ削除をできないかと探してみたところ、ページ最下部に「Update or Remove」といった画面があり、嫌ならこちらから削除をせよとのことなので、取り急ぎデータを削除しようと思いました。

ただ、削除するならrobos.txtでクローラー除けを書いておいてくれとのことで、合わせて設定をしておくことにしました。

ロボット除けも付けておけという、本当に迷惑なサイトです

User-Agent : CuteStat

CuteStat.comのロボットはUser-Agent: CuteStatとなっているようです。これをDisallow:でルートの / を付けて弾いてとのことでした。

User-Agent: CuteStat
Disallow: /

WordPressのデフォルト記載に追記

WordPressをお使いの方ならご存知と思いますが、WordPressには/wp-adminにロボットが巡回してデータを拾わないよう、デフォルトでrobots.txtの出力設定が入っています。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

ここに追記をしたいと思いますが、robots.txtの出力をしているphpがなかなか見つからず、調べてみたところcustome_robots_txt_filter()というrobots.txt用のフィルター関数をfunctions.phpに追記で対応可能と書いてあったので、これで追記をしてみることにしました。

中華系の検索エンジンのロボットはしつこいのでそういったロボットを排除するためにrobots.txtに追記したいんですが、WordPressを使っていて実体ファイルを作成してしまうとプラグインなどでrobots.txtをカスタマイズしている場合にプラグイン側の設定が反映できないので、ここではrobots_txtフィルターを使ってカスタマイズしてみます。

tamulab.jpさんの記事

functions.php

先ほどのブログで紹介されてたフィルター関数を使い、CuteStat指定の記述をfunctions.phpに足しておきました。

//sitemap.txtに追記する
function custome_robots_txt_filter($output = '', $public = true){
	$output .= "User-Agent: CuteStat\n";
	$output .= "Disallow: /\n";
	return $output;
}
add_filter('robots_txt', 'custome_robots_txt_filter', 10, 2);

Googleのrobots.txtテスター

先ほどのフィルター関数を設定してみたところ、無事にrobots.txtにUser-Agent : CuteStat分が追加されておりました。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
User-Agent: CuteStat
Disallow: /

念のため、Googleが提供しているrobots.txtテスターで更新されたrobots.txt をテストしてみましたが、OK(200)が表示されておりました。

robots.txtの追記が無事完了したので、「Update or Remove」からblog.dtn.jpを削除してみたところ、無事にデータが消滅してくれました。

おわりに

先ほど、同じようにブログタイトルでググってみたところ、CuteStatのパクリページはだいぶ順位が下がってくれていました。この記事を書こうと思ってスクショを取ったのが11月中なので、二週間程度で評価がガクっと下がってくれたようです。助かりました。

2週間程度前に見たときは1ページ目にいたものが、4ページ目くらいに下がってました。