2007/02/18(日) サイト内を検索エンジンで検索

 Googleで自分のサイト内に限って検索させる場合、キーワードと一緒に:site cinema1987.orgなどの文字列を入力すればいいのは有名。ただし、これだと一般のプロバイダでホームページを作っている場合には自分のサイト内だけというわけにはいかない。@niftyの場合、homepage3.nifty.comの中にはいったい、いくらぐらいのホームページがあるんだか想像もつかない。数千(数万?)はあるのではないか。

 この場合、自分のサイトのURLに固有の文字列を一緒にわたしてやればいい。http://homepage3.nifty.com/cinema1987/の場合はcinema1987。こうすると、かなり絞り込める。ただ、これでも同じドメイン内でリンクされている場合はリンク先のサイトも検索結果に出てくるだろう。リンク先に自分のサイトの悪口が書いてある恐れもあるので一長一短なやり方ではある。

 Yahoo!やgooの場合も同じように固有の文字列を入力すれば、自分のサイトを優先的に表示することができる。というわけで、そういう文字列を渡すperlスクリプトを書いて、トップページの検索フォームに使ってみた。Yahoo!とgooの場合はhomepage3.nifty.comに絞ってはいないので、この日記や別館の検索結果も出てくる。これはけっこう便利だったりする。もちろん、他のサイトの検索結果も出てくるので一長一短であることに変わりはない。

一太郎2007

 Just Suite 2007に不具合があったそうで、1週間遅れになったが、ようやく届いたのでインストール。新機能のエディタフェーズは普通のテキストエディタだが、ブログを書く際などにテキスト入力欄(テキストエリア)を右クリックすると、このモードの一太郎で編集できる機能が付属している。これは対応したソフト(エリアエディタなど)が他にあり、以前、秀丸を起動するように設定していたことがある。標準で付属すると、便利と言えば、便利か。

 ただし、これ、インターネット・エクスプローラーにしか対応していない。IEのエンジンを使っていてもSleipnirではダメだった。対応ブラウザを増やして欲しいところ。ファイルのデフォルトの保存先はC:\Documents and Settings\ユーザー名\Local Settings\Temp。これは変更できるが、ファイル名をいちいち付けることを考えると、自作の秀丸マクロを使った方が簡単。

 あとは個人的には検索・置換が正規表現に対応したことぐらいがメリット。いつも思うのだが、ATOKをバージョンアップする際に省入力変換も引き継いで欲しいと思う。また一からやり直しになるのである。

2007/02/08(木) Hotmailに届かない

 さくらインターネットのサーバーを経由したメールがHotmailでは受信拒否される。最近、メーリングリストの不達エラーメールが多いので気づいた。試しにさくらのアドレスから自分のHotmailに送ってみたら、見事に拒否された。これは2ちゃんねるでもmixiでもスレッドができている。mixiのコミュニティによると、さくらのIPアドレスがblacklist.spambag.orgというサイトのブラックリストに載っているとのこと。これはさくら側ではどうしようもなく、解除申請も断られたそうだ。

 さくらレンタルサーバのブラックリスト登録状況についてを見ると、ほとんど全部というほど多くはないようだが、僕が利用しているサーバーもしっかりブラックリストに入っている。Hotmail宛てのメールなんてほとんど出さないが、それでも困ることは困る。

 さくらのサーバーにスパム業者がいたのが悪いのだが、それでも一括してブラックリストに載せるというのは乱暴すぎる。影響がかなりあるのではないか。

 mixiのコミュニティの最初の記事は昨年10月に書かれたもの。僕のメールが届かなくなったのは今月に入ってから。ということはブラックリストは徐々に増えているようだ。

Xoops Protectorバージョンアップ

 XOOPSのセキュリティモジュール。6日にバージョン3が正式版として公開されていたのでバージョンアップ。mainfile.phpを書き換えたり、xoops_trust_pathを設定したりで何かと面倒。mainfile.phpの記述を間違えたためにサイトが表示されなくなって焦ったが、なんとか無事にバージョンアップできた。これを入れていると、安心できる。

2007/02/04(日) NMZ.slogの整理

 Namazuの検索キーワードを保存するNMZ.slogは放っておくと、ファイルサイズが増えるばかりなので、時々チェックした方がいい。久しぶりに見てみたら、IPアドレス60.28.17.75からの検索がここ数日で5500回ほどあった。クローラーに違いない。ダウンロードした後、拙作の秀丸マクロ(不要行削除マクロ)を使って削除した。これ、時間が少しかかるので、disabledrawの処理を付け加え、描画をしないで削除するようにしたら、少し速くなった。このほか、検索回数が100回を超えているIPアドレスはクローラーと思って間違いない。なぜ、こんなにクローラーが多いかというと、最近の検索キーワード(nlview.cgi)のリンクをたどっているため。このCGIは表に出さない方がいい。サーバーに余計な負荷がかかるだけ。

 Namazuと言えば、再検索CGI(subsearch.cgi)が対応しない検索エンジンが多くなっていた。仕様が変わったためだろう。少し書き換えればすむことなので、そのうち。ま、GoogleとYahoo!には対応しているのでいいでしょう。で、このsubsearch.cgi、Namazuで検索してキーワードが見つからなかった場合に、XOOPSで構築しているサイトにキーワードを渡したいと思い、改造してみた。XOOPSの検索もgetなので対応できるのだった。

 というわけで、修正した。こんな感じ