Apacheのアクセスログ解析をしようとソフトを選ぼうとした。 [ソフトウェア]
Apacheのアクセスログを解析してくれというように言われ、どうやってやるんだよと思いながらもググって検討をつけてみました。
https://freesoft.tvbok.com/freesoft/web/apachelogviewer.html
っていうか、このレビューサイト実際に使っていないのかよw。レビューではないな。
今回はWebサービスじゃなくて、自分のところでやれるものを探してみました。基本Apacheのログを解析するもので、Windows/Mac/Linux関係なくやってみました。
・ApacheLogViewer
http://win.kororo.jp/weblog/2006/08/17/post_0808.php
Windowsのソフト。access_logを持ってきて読み込ませて解析してくれる。20ファイルぐらいしか処理できないので、長期間(一か月とか)の解析とかは無理。そして、解析結果をエクスポートする方法はあるが個別的なので、見るクライアントに本体とログを入れないと厳しい。使い勝手は良い。
・Analog
・Webalizer
サイトが閉鎖されていてソフトが取れない。Analogはかなり前ではメジャーだったらしい。過去のレビューがかなり残骸として残っている。
・Visitors
http://www.hping.org/visitors/index_jp.php
Linuxでコンパイルして動く。インストール不要と書いてあったがパスの 通っている所に置いておく方がいいだろう。ApacheLogViewerのようにファイル数に上限はあまりないようで、かなりファイル数があっても秒で処理できる。更にテキストかHTMLで出力できるので、サーバを作ってURLアクセスさせたり、ApacheLogViewerのようにクライアントにソフトとログを入れないといけないわけではない。ただ、ApacheLogViewerほどは細かく情報は出てこなかった。よくアクセスしてくるIPごとのアクセス数とかはない。
・wlog
http://www.gluesoft.co.jp/ja/wlog/
Excelと書いてあったので、VBAとかで動いているのかなと思ったら、読み込ませるexeがあって、そこからログのデータを流し込む感じなのかな? Excelと書いているけど、Accessのファイルもあったりで、Accessを使えないと動かないのかも。
でも入っていてもログファイルからの読み込みができなかった。gzでも解凍してプレーンテキストでもログファイルを読み込んでくれず。誰かに渡すときには、Excelでデータ加工をしやすいと思っていたので残念。だいぶ昔のものみたいなので、昔の環境じゃないと動かない可能性はある。ひな形のExcelファイルの拡張子はxlsxでなくxlsだし。何にしても現状使えないっぽい。
・WebLog Expert Lite
https://www.weblogexpert.com/download.htm
もうLite版ってのがないみたいで、金をかけられないのでダメ。試用はできるみたいだけど、時限なので使えたとしても継続して使えないんじゃ意味ない。
・AWStas
https://qiita.com/devzooiiooz/items/f262eb16ac3d51d156c0
ソフトウェアリポジトリに入っているくらいメジャーっぽいが、実際に使っているApacheのマシン上に入れないといけないタイプで、逐一cronでデータを拾いに行っている感じ。貯めているログファイルを食わせて出力のタイプではなく、出力イメージを見る限り悪くなさそうなので残念。
レンタルサーバーとかに入っていることも多いみたい。たくさんサーバがあって、ログを引っ張ってきて解析するというやり方が使えないっぽいので厳しい。
今時Perlというのもなんとなく厳しいw。
・Webdruid
http://www.projet-webdruid.org/download.html
http://www.markhor.net/apache/apache10
Webalizerの後継らしいが、./configureするときに、コンパイルに依存性がそこそこあってしんどかった。yumには入っていなかったし、まぁソースファイルからなんで仕方ない。一番新しいソースをコンパイル中に./configureは通ったがmakeできないという訳の分からない状態になったので、一番古いソースをビルドしインストールした。make installの時にエラーが出たんだけど、なぜかインストールはできていた。意味不明。たぶん、Webalizerの最新ソースだろう。
インストールされていたので、ログを食わせようとしたんだけど、/usr/local/share/webdruid/engines.listがないとか言われたので、ソースにある同名のファイルをコピー。そうするときちんとファイルを食って、HTMLファイルやら画像ファイルやらが出てきた。なぜかindex.htmlがLinuxのFirefoxではエラーが出て開けなかったんだけど、Windowsまで持ってきて開いたら見られた。ギトギトした色使いなのも厳しい。
内容的にはわりと項目が豊富で、Visitorsではなかったアクセスしたクラアントのアクセス数などを見ることができた。コンパイルして動かすまでが問題だけど、動作的には問題がないようだった。ただ見た目があまりよくないので、昔のGUIみたいなのが許せない人は使いたくないかも。
いろいろあって、古くて動かないものやサイトが閉鎖されていたりして使えないものもあったが、わりと一長一短あって、これ一つで問題ないだろうというものが無さそうであった。ログで結果に変動がないので、スタティックなWebページを生成すればいいという考えが大勢だったが、HTMLで出力してくれればわりと渡したりもWehページとしてアクセスさせることもできるんじゃないかとは思う。
見たい項目が足りていればVisitors一択な気もするけど、月ごとに見るという事であれば、いろいろ中途半端で残念過ぎるけどWebdruidでもいいと感じた。ただaptやdnfなどのソフトウェアリポジトリに慣れ切った人にはコンパイルするのもしんどいかなと思わなくもない。
Google Analysticsみたいにコードを埋めて勘定してくれるサービスが一般的なんだろうけど、外にデータを出したくないとかあるだろうから、結局生のログを解析ってことになる。だけどもはやそういうやり方は流行らないんだろうな。だから少々面倒なこともある。
https://freesoft.tvbok.com/freesoft/web/apachelogviewer.html
っていうか、このレビューサイト実際に使っていないのかよw。レビューではないな。
今回はWebサービスじゃなくて、自分のところでやれるものを探してみました。基本Apacheのログを解析するもので、Windows/Mac/Linux関係なくやってみました。
・ApacheLogViewer
http://win.kororo.jp/weblog/2006/08/17/post_0808.php
Windowsのソフト。access_logを持ってきて読み込ませて解析してくれる。20ファイルぐらいしか処理できないので、長期間(一か月とか)の解析とかは無理。そして、解析結果をエクスポートする方法はあるが個別的なので、見るクライアントに本体とログを入れないと厳しい。使い勝手は良い。
・Analog
・Webalizer
サイトが閉鎖されていてソフトが取れない。Analogはかなり前ではメジャーだったらしい。過去のレビューがかなり残骸として残っている。
・Visitors
http://www.hping.org/visitors/index_jp.php
Linuxでコンパイルして動く。インストール不要と書いてあったがパスの 通っている所に置いておく方がいいだろう。ApacheLogViewerのようにファイル数に上限はあまりないようで、かなりファイル数があっても秒で処理できる。更にテキストかHTMLで出力できるので、サーバを作ってURLアクセスさせたり、ApacheLogViewerのようにクライアントにソフトとログを入れないといけないわけではない。ただ、ApacheLogViewerほどは細かく情報は出てこなかった。よくアクセスしてくるIPごとのアクセス数とかはない。
・wlog
http://www.gluesoft.co.jp/ja/wlog/
Excelと書いてあったので、VBAとかで動いているのかなと思ったら、読み込ませるexeがあって、そこからログのデータを流し込む感じなのかな? Excelと書いているけど、Accessのファイルもあったりで、Accessを使えないと動かないのかも。
でも入っていてもログファイルからの読み込みができなかった。gzでも解凍してプレーンテキストでもログファイルを読み込んでくれず。誰かに渡すときには、Excelでデータ加工をしやすいと思っていたので残念。だいぶ昔のものみたいなので、昔の環境じゃないと動かない可能性はある。ひな形のExcelファイルの拡張子はxlsxでなくxlsだし。何にしても現状使えないっぽい。
・WebLog Expert Lite
https://www.weblogexpert.com/download.htm
もうLite版ってのがないみたいで、金をかけられないのでダメ。試用はできるみたいだけど、時限なので使えたとしても継続して使えないんじゃ意味ない。
・AWStas
https://qiita.com/devzooiiooz/items/f262eb16ac3d51d156c0
ソフトウェアリポジトリに入っているくらいメジャーっぽいが、実際に使っているApacheのマシン上に入れないといけないタイプで、逐一cronでデータを拾いに行っている感じ。貯めているログファイルを食わせて出力のタイプではなく、出力イメージを見る限り悪くなさそうなので残念。
レンタルサーバーとかに入っていることも多いみたい。たくさんサーバがあって、ログを引っ張ってきて解析するというやり方が使えないっぽいので厳しい。
今時Perlというのもなんとなく厳しいw。
・Webdruid
http://www.projet-webdruid.org/download.html
http://www.markhor.net/apache/apache10
Webalizerの後継らしいが、./configureするときに、コンパイルに依存性がそこそこあってしんどかった。yumには入っていなかったし、まぁソースファイルからなんで仕方ない。一番新しいソースをコンパイル中に./configureは通ったがmakeできないという訳の分からない状態になったので、一番古いソースをビルドしインストールした。make installの時にエラーが出たんだけど、なぜかインストールはできていた。意味不明。たぶん、Webalizerの最新ソースだろう。
インストールされていたので、ログを食わせようとしたんだけど、/usr/local/share/webdruid/engines.listがないとか言われたので、ソースにある同名のファイルをコピー。そうするときちんとファイルを食って、HTMLファイルやら画像ファイルやらが出てきた。なぜかindex.htmlがLinuxのFirefoxではエラーが出て開けなかったんだけど、Windowsまで持ってきて開いたら見られた。ギトギトした色使いなのも厳しい。
内容的にはわりと項目が豊富で、Visitorsではなかったアクセスしたクラアントのアクセス数などを見ることができた。コンパイルして動かすまでが問題だけど、動作的には問題がないようだった。ただ見た目があまりよくないので、昔のGUIみたいなのが許せない人は使いたくないかも。
いろいろあって、古くて動かないものやサイトが閉鎖されていたりして使えないものもあったが、わりと一長一短あって、これ一つで問題ないだろうというものが無さそうであった。ログで結果に変動がないので、スタティックなWebページを生成すればいいという考えが大勢だったが、HTMLで出力してくれればわりと渡したりもWehページとしてアクセスさせることもできるんじゃないかとは思う。
見たい項目が足りていればVisitors一択な気もするけど、月ごとに見るという事であれば、いろいろ中途半端で残念過ぎるけどWebdruidでもいいと感じた。ただaptやdnfなどのソフトウェアリポジトリに慣れ切った人にはコンパイルするのもしんどいかなと思わなくもない。
Google Analysticsみたいにコードを埋めて勘定してくれるサービスが一般的なんだろうけど、外にデータを出したくないとかあるだろうから、結局生のログを解析ってことになる。だけどもはやそういうやり方は流行らないんだろうな。だから少々面倒なこともある。
コメント 0