ミツエーリンクス

アクセス解析Blog

Home > メソッド > アクセス解析Blog

「Webサイトの継続的改善」のための手段として、「アクセスログ解析」をもっと有効に活用しましょう!このコーナーでは、「アクセスログ解析」を行うための手引き、分析方法や結果の活用方法などを、わかりやすく説明していきます。

2007年02月26日

基点ページからの経路分析データについて

ひとつの基点ページを指定して、次にどのページを閲覧したかというタイプの経路分析を行うことがよくあります。このタイプの経路分析は、そのページのレイアウト上の問題点、訪問者の目的を知る上で非常に有効な分析ですが、データの出力には2つの前提があることに注意が必要です。

まず1つ目、これはサーバログ取得型のツールに限りますが、基点ページから、ブラウザの「戻る」ボタンを利用してログに残らない移動をした後、別のページに移動するというパターンも含まれるという点です(詳しくは、離脱率だけではわからない「ページの使われなさ」を参照)。

次に2つ目、これがこのエントリーでのテーマとなりますが、基点ページを指定した経路分析では、「その基点ページを、訪問の最初に見たときからの経路分析」になっているという点です。つまり、1回の訪問で、その基点ページを2回目に見たときに、次にどのページを閲覧したのかというデータまでは捕捉していません。

この現象は、実際にあるページからの、2ページ遷移の経路分析レポートと、4ページ遷移の経路分析レポートを比較するとわかります。例えば、ページAを基点としたときの2ページ遷移の経路分析レポートが以下のように表示されたとします。

移動パターン 回数
パターンID ページ1 ページ2
#1 ページA ページB 200
#2 ページA ページC 100

この場合、4ページ遷移の経路分析レポートでは、以下のように出力されるかもしれません。

移動パターン 回数
パターンID ページ1 ページ2 ページ3 ページ4
#3 ページA ページB ページC ページD 150
#4 ページA ページB ページD ページC 50
#5 ページA ページC ページB ページD 60
#6 ページA ページC ページA ページB 40

まず注目して欲しいのは、#3と#4の合計が、#1と合致することです。このように、経路分析のデータは、基点ページからの遷移を集約するようになっています。

一方で、今回問題となるのは#6のような場合です。#6では、ページ3でもう一度ページAに戻ってから、ページBに移動していますが、基点ページから、最初に移動しているページがページCなので、2ページ遷移の経路分析では#2に含まれます。そのため、実際にページAからページBへの移動が発生しているにも関わらず、2ページの経路分析のレポートにはそれが表れない、という現象が起きます。

これは、あるページA「への」経路を調べたときに、ある基点ページからの移動が非常に多いのに、その基点ページ「からの」経路を調べると、そのページAへの移動が少ない、というミスマッチが起きている際の原因として判明することが多いです。

普段、両者はほぼ一致しますが、特にこの差異が著しいときに、それぞれのデータにどのような意味合いをもたせて活用をするのかは、検討が必要だと言えるでしょう。

恒久リンク | コメント [0件] | 関連情報(トラックバック) [0件]

2007年01月30日

KPIから対策を起こす基準 -Control Limits-

私がよく読むBlogに、アメリカのWebアナリスト、Avinash KaushikによるOccam's Razorがあります。この中に、"Excelent Analytics Tips #9: Leverage Statistical Control Limits"と題されたエントリーがポストされました。とても素晴らしい(どのエントリーも素晴らしいのですが…)内容なので、是非ここで、紹介したいと思います。

このエントリーでは、日々変化するKPI(Key Performance Indicator)を見て、どの段階で対策を講じるべきかについて、"Control Limits"という基準を設けて考えよう、ということを提案しています。

まずこのエントリーで彼は、時系列で見るアクセス状況には、"natural biorythm"(自然周期)をもつ傾向があることを指摘します。そして、この定常的な上下動は説明がしにくく、深い分析をする必要がないところまで分析をしてしまうことがあると言います。

このような定常的な変化と、本質的な変化を区別するために用いられるのが、シックスシグマで利用されるControl Limitという概念です。この概念には3つの指標が登場します。

Mean
そのKPIの平均値
UCL(Upper Control Limit)
そのKPIの傾向の分布の上限。そのKPIの平均+そのKPIの標準偏差x3で計算。
LCL(Lower Control Limit)
そのKPIの傾向の分布の下限。そのKPIの平均-そのKPIの標準偏差x3で計算。

この3つの指標を、時系列の推移グラフに合わせて示します。そうすると、UCL、LCLから外れていなければ、許容できる範囲の変化だとみなすことが出来ますし、外れていれば対策を起こすべきだとわかります。もちろん、そのように簡単に判断がつかない場合もあると考えられますが、データを一見したとき、大幅に理解しやすくなるという点で、非常に役立つTipsだと思います。

恒久リンク | コメント [2件] | 関連情報(トラックバック) [0件]

2007年01月10日

永続Cookieによる訪問者の識別

Webビーコン型のアクセス解析ではもちろん、アクセスログ取得型のアクセス解析でも、永続Cookieによるアクセス解析が基本になってきました。Cookieを利用しないアクセス解析では、訪問及び訪問者を、接続元のIPアドレスとユーザーエージェント(UA)の組み合わせにより識別していましたが、この方法は下記2つの問題を抱えていました。

  1. 企業などで単一のIPアドレスからインターネットに接続している場合、そのIPアドレスを利用する全クライアントからのアクセスが、ひとつの訪問と識別される
  2. プロバイダからのインターネット接続の場合、同じユーザーにも関わらず、接続都度異なるIPアドレスからの訪問となるため、同一訪問者だと特定できない

こうした問題は、永続Cookieを用いると、どのPC環境からの訪問なのかが正しく記録されるため、識別がかなり正確になります。しかし、永続Cookieの利用も完璧ではありません。特に下記の点は、永続Cookieでアクセス解析を行う際の正確性の限界と言えるものです。

  1. Cookieを完全に利用しない場合、またはブラウザの終了都度、Cookieを削除する設定にしている場合、正しい識別ができない
  2. 同じPC環境を、複数人で共有して利用している場合に、その利用している人を特定することができない
  3. 職場、家庭など複数のPC環境をもつ、ひとりの人からの訪問を特定できない

とは言え、これらの限界によるデータの正確さへの影響は、IPアドレスとUAによる訪問の識別に比べれば、比較にならないほど少ないです。よって、これからアクセス解析を行う、またはアクセス解析の環境をリニューアルをする場合は、はじめから永続Cookieを用いたアクセス解析を行うことが望まれます。

恒久リンク | コメント [0件] | 関連情報(トラックバック) [0件]

2006年12月20日

「訪問分析」と「訪問者分析」

AIDMAなどの消費者行動モデルから類推してサイト訪問者の行動を考えれば、必ずしも訪問者は1回のサイト訪問で、サイトの目的とするページに到達するのではなく、何度かの訪問を経てサイトの目的とするページに到達する、と考えるのは自然なことです。

最近、この考え方をベースにして、訪問者の行動を1回のサイト訪問だけで捉える「訪問分析」ではなく、複数の行動をまとめて捉える「訪問者分析」の重要性が高まっています。アクセス解析ツール「EBiS」に実装されている「間接広告効果測定機能」は、そのひとつの例と言えるでしょう。

EBiSの間接広告効果測定
http://www.ebis.ne.jp/a_ebis/indirect.html

この測定の目的は、本来サイトの認知に大きな役割を果たしている筈のバナー広告の効果を正しく捉え直すことですが、この測定の考え方の根本には、「訪問者の1回のサイト訪問だけ見ていても、その行動の理由は正しく捉えられない」ということがあります。

ただ、アクセス解析ツール自体に、こうした訪問者分析をするための機能の実装は不十分で、かつ、それ以前にどういった解析が有効なのかは、今後まだまだ研究が必要な分野だと考えられます。

恒久リンク | コメント [0件] | 関連情報(トラックバック) [1件]

2006年11月22日

SiteTrackerの新バージョン「製品発表会」

弊社も販売代理店となっているアクセス解析ソフト「SiteTracker」の新バージョンがリリースされ、株式会社アスキーソリューションズ様の主催により、12月1日に製品発表会が行われます。

http://www.asciisolutions.com/seminar/st_symposium.html

上記のページには、機能強化に関して詳しい内容は記載されていませんが、製品の開発元であるUnica Corporation(旧:Sane Solutions)のサイトには、新バージョンの「SiteTracker」(米国での名称はNetInsight)について、画面キャプチャーとともに特徴が示されています。

http://www.unica.com/product/product.cfm?pw=hlcng

より柔軟な操作性や、視認性の改善、分析機能やデータ収集機能の強化など、これまでのバージョン7.5から、さらなる進化が図られている模様で、製品発表会での内容が注目されます。

恒久リンク | コメント [0件] | 関連情報(トラックバック) [0件]

2006年11月08日

「サイト内検索」の利用状況を分析する

「サイト内検索」という機能は、現在多くのサイトで設置されています。この機能は、あくまでサイトで情報を探すための補助的な情報提供機能ですが、わざわざこの機能を利用してまで検索されるキーワードは、そのサイトにとって大きな意味をもつ可能性があります。このサイト内検索の利用状況を分析して、サイトの利用状況について新たな視点からの洞察を進め、サイトの改善に繋げましょう。

最初に、分析するための準備として、アクセス解析ツール側の設定が必要です。多くの解析ツールで、サイト内検索の分析はできますが、サイト内検索は当然さまざまな種類がありますので、それに合わせて解析ツール側で設定して始めて分析は可能になります。

解析ツールの設定をして、データが抽出できるようになったら、分析を開始します。大きく3つの解析ポイントがあると考えられます。

(1)まず、サイト内検索でどのようなキーワードが多く利用されているかを確認しましょう。その中には、そのサイトで関連する情報を提供できないキーワードもあると思いますが、サイトに関連するキーワードも多くあるでしょう。まずは、そうしたキーワードに関連する情報への導線が悪いために、サイト内検索が多く利用される結果となっていないかを検証しましょう。

(2)次に、キーワードが利用されているのに、1ページも検索結果がないキーワードを調べます(以降の分析では、サイトに関連するキーワードに絞って分析を進めます)。サイト構築側では想定していなくても、確かに使われ得るキーワードがあるでしょう。その場合には、そうしたキーワードをページに組み込むことでサイト内検索結果が表示されるようにします。

(3)最後に、重要なキーワードで検索した後の経路分析を行います。そのキーワードで検索したときに、到達すべき目的のページに訪問者が間違いなく到達しているかどうかを調べましょう。この分析では、サイト内検索を基点とする目的ページまでの導線という観点で、改善すべき箇所がないかどうかを確認しましょう。

以上のように、サイト内検索の分析には、サイトの利用状況改善のための糸口が多くあります。特にASP型の解析ツールの場合は、設定しなければデータは保存されていきません。まだ分析の設定をしていなかったら、是非設定を行いましょう。

恒久リンク | コメント [0件] | 関連情報(トラックバック) [0件]

2006年10月25日

Googleのページ最適化ツールリリース(ベータ版)

画像やテキスト、レイアウトなどページの構成要素を動的に入れ替えながらどのパターンのレイアウトが最も効果的なのかを検証する「ページ最適化ツール」が、最近さまざまな会社からリリースされていますが、とうとうGoogleからも同様のツールがリリースされました。

http://services.google.com/websiteoptimizer/

利用はAdWordsアカウント保有者に限られますが、Google Analyticsに続き、こちらのツールも無料となっています。最近急増するページ最適化ツールの中でも大きなインパクトを与えるものとなることが予想され、今後の各社の動向に注目が集まります。

恒久リンク | コメント [0件] | 関連情報(トラックバック) [0件]


関連情報

バックナンバー

プライバシー&サイトポリシーCopyright (c) 2011 Mitsue-Links Co.,Ltd. All Rights Reserved.

Web制作、ホームページ作成、Flash制作:Webサイト構築、Webサイト運用:ブロードバンドコンテンツ(音声制作、動画制作):システム開発、Webマーケティング、Webブランディング、Webコンサルティング・・>のWeb Integrationならミツエーリンクスにお任せください。