静的サイトジェネレーターとGitリポジトリでブログ
Pagent
Seesaaブログでもブログを書いている。
再構築が遅かったり、コメントのRSSが無かったりと色々不満はあるが、1ヶ月以上更新が無くても広告が表示されないし、けっこう気に入っている。
先日アクセス解析「Piwik」を見ていると、http://rd.ane.yahoo.co.jp/rd?ep=...
という見慣れない外部リンクへの移動があるようだった。
そういうリンクを貼った記事は探しても見つからないし、不審に思っていたが、どうやらスマートフォン用ページの広告のようだった。
スマホ用のページは滅多に確認しないし、ブラウザにアドオンのAdblock PlusとGhosteryが入っているので、これまでまったく気が付かなかったようだ。
Adblock PlusとGhosteryを無効にしてUser Agent Switcherでスマホ用ページを見てみると、けっこう広告が挿入されている。
Seesaaにとって広告は重要な収入源だろうし、無料で利用させてもらっている身としては仕方の無いことだが、記事タイトルと記事本文の間のテキスト広告はちょっと酷いんじゃないだろうか。
タイトルと本文の間に、しかもテキスト広告。
文字の大きさは違うが、本文と勘違いする人もいるかもしれない。
イメージバナー広告だったらまだまし。
FC2ブログでもここまで酷くはないようだ。
検索すると、スタイルシートに加筆して広告を非表示にする方法もあるようだが、Seesaaブログ利用規約の禁止事項2に該当するようだ。
2.Seesaaが表示する広告を不正に移動、改変、削除または不正表示させる行為
いきなりブログを削除されてもかなわないし。
ちょっとゲンナリ。
スマホの人もAdblockを使ってくれるといいんだが。
検索エンジンにインデックスされにくいようなのでrobots.txtを置いてみたが、sitemap.xmlの内容も少し修正してみた。
プラグインで導入したsitemap.xmlには個別記事のURLしか記載されていないが、Octopressのサイトマップを見てみるとブログのルートURLやrobots.txt、/archives/も記載されている。
node_modules/hexo-generator-sitemap/sitemap.ejsの<urlset>
内に下記を追記してみた。
<url>
<loc>http://pagent.github.io/</loc>
</url>
<url>
<loc>http://pagent.github.io/robots.txt</loc>
</url>
<url>
<loc>http://pagent.github.io/archives/</loc>
</url>
URLを取得するための変数が分からないので、<loc>
の箇所は手動で記載。<lastmod>
は入れたかったが、これもどうやれば良いのか分からないし、省略可能とのことなので省略した。
Octopressでは個別記事の<lastmod>
は、最終更新日時ではなく投稿日時のよう。つまり後から修正しても変更は無い。
一方Hexoのサイトマップでは最終的に変更された日時が記載され、それが上位に来ている。
どちらが良いのか分からないが、しばらく様子を見てみようと思う。
それから、Octopressのサイトマップでは<priority>
や<changefreq>
も記載されている。
SEO的にはOctopressの方が丁寧に作られているかもしれない。
generateが断然早いので、なるべくHexoを使いたいところだが。
記事がなかなか検索エンジンにインデックスされない。古い記事がインデックスされず新しいのがインデックスされたりしているようだ。
プラグインでsitemap.xmlは導入しているが、ちゃんと読んでくれているのか疑問。
sitemapとは別にクローラーに各種の指定をするrobots.txtというのがあるようなので、GitHub Pagesに置いてみた。
SeesaaやFC2などのブログサービスでは自動的に用意してくれているようだ。
sourceフォルダ直下にrobots.txtを新規作成。
generateするとちゃんとpublicフォルダ内にもrobots.txtが生成された。
deployし、ブラウザでhttp://pagent.github.io/robots.txt
にアクセスしが、何故か404エラーだった。GitHub Pagesのレポジトリには追加されていたが。
反映に時間がかかるようでしばらくするとアクセス出来た。
robots.txtの内容は下記のようにした。
User-agent: *
Disallow:
Sitemap: http://pagent.github.io/sitemap.xml
User-agent: bingbot
Crawl-delay: 30
User-agent: MSNBOT
Crawl-delay: 30
大して効果は無いのかもしれないが、おかしなことを書かない限りデメリットはないだろうし、無いよりはましだろう。
ーー
(追記)
robots.txtを置いてから、わりと早く検索エンジンにインデックスされるようになった気がする。
Octopressではデフォルトでsitemap.xmlとrobots.txtを生成してくれるようだ。
この点、HexoよりOctopressの方がSEO的に優れているかもしれない。
ーー
(再追記)
Google ウェブマスターツールのヘルプによると、「robots.txt ファイルが必要になるのは、Google などの検索エンジンのインデックスに登録したくないコンテンツがある場合のみ」らしい。
robots.txt ファイルについて - ウェブマスター ツール ヘルプ
SEO上どうしても必要なものではないようだ。
いつの間にかHexoを使って書いているブログで、Googleを利用したサイト内検索が出来なくなっていた。
検索してもブログ全体のインデックス状況(site:pagent.github.io
を検索した結果)が表示されるだけ。
OctopressのブログではただのGoogle検索になってしまっている。
Googleでなんらかの変更があったのだろうか。
検索ボックスのレイアウト
<input type="search" name="q" results="0" placeholder="<%= __('search') %>" class="form-control">
<input type="hidden" name="q" value="site:<%- config.url.replace(/^https?:\/\//, '') %>">
のvalue=
でサイトURLを指定している方(下の方)のname="q"
をname="hq"
に修正し、
<input type="search" name="q" results="0" placeholder="<%= __('search') %>" class="form-control">
<input type="hidden" name="hq" value="site:<%- config.url.replace(/^https?:\/\//, '') %>">
にしたら、一応サイト内検索が出来るようになった。
Octopressの方でも同様だった。
その内サイトジェネレーターやそのテーマの方でも修正されるのだろう。
Windows 8が発売されるちょっと前、Windows 8のタイル形式が嫌だったのであわててWindows 7のPCを買った。
Windows 7サポート終了後のことも考えて、お得にWindows 8にアップグレード出来る「Windows 8優待購入プログラム」にも登録した。2000円位だった記憶がある。(1200円という記事を多く見かけるが。)
一度Windows 8にアップグレードしてみたが、やはり使いづらいのですぐにWindows 7に戻した。
アップグレードするためのisoファイルは今もあるが、プロダクトキーはあるだろうかと気になり探してみたが、肝心のプロダクトキーが見つからない。
たしかFirefoxのアドオンScrapBookで保存していたんだったと思うが、以前Windows 7を再インストールした時に消えてしまったらしい。
メールも送られて来ていたはずだが、それも削除してしまっているようだ。
こうなるともうお手上げかもしれない。
カスタマー サービス電話番号に電話してみたら、なんとかなるかもしれないが。
(一度、Windows8を購入したのですが再度ダインロードはできなのでしょうか? - マイクロソフト コミュニティ)
Windows 7の延長サポートの終了が2020年、Windows 8の延長サポートは2023年までのようなので、プロダクトキーが見つかれば3年長く安全にWindowsを使うことが出来るのだが。
2020年までにはWindows 10の次の、さらにそのまた次のWindowsも出ているかもしれないし、Windows 7のPCはほぼLinux専用としてWindowsではネットに繋がないようにした方が良いのかもしれない。
今でもWindowsはほとんど使ってないし。
「安い!と思ってもあわてて買わない方が良い。」という良い勉強になった。
あと、面倒臭くても紙に書いて残しておくことも大事かも。
プロダクトキーを失くしてしまった人、他にも結構いるんじゃないだろうか。
ーー
(追記)
今秋発売予定のWindows 10へのアップグレードは、発売後1年間はWindows 7、8からは無料らしい。
7や8からWindows 10へのアップグレードは無料 | Pagent
なんだ。「Windows 8優待購入プログラム」は買わなくても良かったのだな。
(追記2)
Windows 10は多くの情報を収集するらしい。今年2015年8月1日から有効となったMicrosoftの新しいプライバシーポリシーは、収集したデータを様々な形で利用することを表明しているとか。
Windows 7のままアップグレードしない方が良さそうだ。
ScrapBookなどでローカルに保存したページにStylishのスタイルを適用するには、対象ドメインを指定する箇所に,url-prefix(file://)
を追記すれば良い。
たとえば、Amebaブログのアメーバヘッダーと記事下部の有名人ブログ広告を削除するスタイルに追加する場合は下記。
@namespace url(http://www.w3.org/1999/xhtml);
@-moz-document domain("ameblo.jp")
,url-prefix(file://)
{
#ambHeader {
display: none;
}
html.fixed body {
padding-top: 0px !important;
}
#rc_module2 {
display: none;
}
}
ScrapBookに保存したページも見やすくなった。
動画サイトの背景を黒くしたり、Twitterのダイレクトメッセージ(DM)のアイコンを消したりと、なにかと便利に使っているFirefoxのアドオン「Stylish」だが、急にすべてのサイトで動作しなくなってしまった。
Stylishをインストールし直したり開発版を入れてみたりしたが、動いてくれない。
Firefoxをリセットするしかないかと諦めかけたが、メニューバーのStylishのアイコンをクリックしたら上から2番目に「すべてのスタイルを作動させる」という項目があったので、クリックしてみた。
なんなく機能した。
すべてのスタイルを作動させても、Stylishの設定で無効にしてあるスタイルは機能しない。
「すべてのスタイルを作動させる」はブラウザの再起動をせずにStylish自体を有効にするかどうかということらしい。
いつの間にか知らずに「すべてのスタイルを停止する」をクリックしてしまっていたようだ。
「すべてのスタイルを〜」ではく、「Stylishを有効にする」「Stylishを無効にする」と言ってくれた方が分かりやすいのだが。
たとえば、Googleで「example.com」を検索して、検索結果の画面から「Example domains - Internet Assigned Numbers Authority」に行こうとすると、http://www.google.co.jp/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0CB0QFjAA&url=http%3A%2F%2Fexample.com%2F&ei=7BmWVMvsGZLn8AXWvYD4BQ&usg=AFQjCNFgcPdvBI3xyhn99rnOikPXwwtMmA&bvm=bv.82001339,d.dGc
を経由して、http://example.com/
にリダイレクトされる。
リダイレクトを経由せず、直接目的サイトにアクセスするためのFirefoxアドオンとして、これまで「Redirect Cleaner」というのを使っていた。
だが、いつの間にかホワイトリストに追加するための設定画面が無くなってしまい、アドオンの設定画面からしか追加出来ない。
「Redirect Cleaner」自体もFirefoxの公式サイトから無くなってしまっている。
使い勝手が悪くなってしまったことだし、他に類似のアドオンがないか探してみたら、色々とあるようだった。
Redirect Remover
残念ながらFirefox 34.0に対応していない。NoRedirect
インストールしてみたが、使い方がよく分からない。Clean Links
メニューバーのアイコンを右クリックすると、リダイレクトをスキップした履歴が表示される。
通常通りリダイレクトを経由させたい場合は、ここから「Whitelist Selection」ボタンで簡単にホワイトリストに追加出来る。
ホワイトリストに追加したドメインはアドオンの設定画面の「Skip Domains」に追加される。
ホワイトリストから外す時は設定画面の「Skip Domains」から削除しないといけないが、使い勝手はかつての「Redirect Cleaner」に近い。
というわけで、「Clean Links」を使うことにした。
リダイレクトをスキップした時はハイライト表示されるので、ちゃんと仕事をしてくれていると分かる。
「Skip Domains」以外の設定項目はよく分からないが、普通に使う分にはデフォルトのままで良いと思う。
Githubではgraphs→trafficでトラフィックを見られるが、これはリポジトリへのアクセス状況などを見るもので、GitHub Pagesを利用したブログに対してのアクセス解析ではないようだ。
ブログのどのページにどれくらいアクセスがあったか等を確認するには、他のブログ同様なんらかのアクセス解析ツールを導入する必要がある。
(GitHub Pagesにサーバーログ型のアクセス解析は設置出来ないだろうから、AWStatsなどは対象外とした。)
アクセス解析サービスを利用する
登録してすぐ利用出来るので簡便。しかも高機能なサービスが多い。
Google Analytics等は無料で広告も入らない。
Google Analytics
OctopressでもHexoでも、Google Analyticsを使うことを想定している様だが、なんでもかんでもGoogleというのはちょっと嫌な気がする。
それに、DisconnectやGhosteryなどトラッカーをブロックするアドオンがブラウザに導入されていたら、その訪問は解析出来ない。(導入している人はそれほど多くはないかもしれないが。)
(補記)
FirefoxのトラッカーブロックアドオンGhosteryのリストには、Google Analyticsの他、Yahoo Analytics、Pt engine、Ninja Access Analysisなども挙げられている。
FC2アクセス解析は現在のところ何故かリストに入っていない。Yahoo!アクセス解析
検索エンジンではGoogleと提携していることだし、わざわざ使おうという気にはならない。Pt engine
Google Analyticsにヒートマップ機能を追加したようなもので、かなり高機能らしい。大企業での導入も多数実績がある様子。
無料版で解析できるドメイン(サイト)は一つだけのようで、有料版だととたんに高額になる。他のアクセス解析サービス
忍者アクセス解析やFC2アクセス解析など色々あるが、無料だと広告などが入るという難点がある。
QLOOKはバナーが上部でチカチカ点滅したりしないのでそれほど気にならないが、それでも広告バナーは表示される。
サーバー設置型のアクセス解析ツールを導入する
レンタルサーバーにアクセス解析ツールを導入してブログに解析タグを貼れば、無料で利用出来て広告も入らないツールが多々ある。
上記のようなアクセス解析サービスの利用と違って、解析サービス会社に情報を渡さずに済むというのもメリットかもしれない。
それほど多くは試してないが、利用経験のあるものは下記。
(データベース不要のもの)
futomiの高機能アクセス解析CGI
無料版(Standard版)では自分のアクセスを除外出来ないという致命的な欠点がある。w3Analyzer
動作は軽快だが、解析出来る項目はやや少ない。XenoLogger
現在は開発は終了していて「ミスター アクセス解析」に統合されている模様だが、XenoLoggerも依然ダウンロード可能。
データベースを使わないタイプなので、見た目の派手さはないが、充分な機能を備えている。
管理画面がコンパクト(文字や行間が小さめ)なので、ノートパソコンでの利用に向いている。
おすすめ。
(データベースが必要なもの)
Research Artisan Lite
高機能でページ内のリンククリック歴も解析してくれる。
悪くないのだが、管理画面が縦方向に大きいので、縦の狭いノートパソコンでの利用時はスクロールがしんどい。
検索エンジンのクローラーが来てくれてるかどうかの解析は精度が高いように思う。Piwik
オープンソースのソフト。
リアルタイムでの解析などもあり高機能。さらにプラグインでの拡張も可能。
これもリンククリックの解析あり。リンククリック解析にはデータベースが必要なのだろうか。
導入や使いこなしの難易度はやや高い印象だが、かなり有用なツール。
結論
他にも多々あると思うが、普通はたぶんGoogle Analyticsを利用するのが順当なのだろう。Google嫌いの人はPt engineだろうか。
個人的には、他のブログでも利用していて使い慣れているXenoLogger(ミスター アクセス解析)が今のところ一押し。
Piwikは使いこなせればかなり有用かもしれない。
あと、Pt engineは使用経験が無いが、少し興味をそそられる。
ーー
(追記)
GhosteryのブロックリストにはPiwikも入っているようだ。
別ブログで、ブログ内の人気ページを集計する「FC2アクセスランキング」を利用しているが、2014-12-06 23:50:01の集計を最後に1週間以上も更新されていない。タグはちゃんと貼ってあるのに。
FC2といえば、FC2ライブでの性行為ネット中継に関連して、実質的な運営会社とみられる「ホームページシステム」や関連会社に今年9月30日、家宅捜査が入ったことが思い返される。
FC2ブログにも影響が及ぶのではないかと懸念されていたが、これまでは通常に運営されていた模様。
FC2アクセスランキングの集計ストップの原因は分からないが、FC2大丈夫なんだろうか。
ーー
(追記)
2014年12月16日現在、FC2アクセスランキングが復帰したようだ。