コラム
ビッグデータとマーケティングリサーチ
ビッグデータを
- 非構造化データが
- 極めて大量に
- フィールドワーク(調査)しなくても
収集されたものとし、これを分析することで何らかの意味(価値)を生み出す分析手法まで含めた方法論全体と定義する。
通常、マーケティングリサーチのデータは対象サンプルごと(行)に測定された結果(多くは数値や記号)が列に記述された「構造化」されたデータを扱う。
構造化できなかったデータは「アフターコーディング」で無理やり構造化することもある。
極めて大量とは、通常のリサーチデータを越えたという漠然としたイメージだが、Excelで扱えるデータの上限104万8576行×1万6384列=171億7986万9184件を越えるテラバイトくらいのデータ量のことであろう。
マーケティングリサーチでExcelの限界を越えるようなサンプル数を扱った人はいないであろう。
改めて調査しなくてもこれら(非構造化データ)が収集されるということはデータはタレ流され、ブタ積みされているわけである。
こう見てくるとビッグデータは従来のマーケティングリサーチとは相当に違うものとなる。
ビッグデータの中ではいわゆる「ライフログデータ」がマーケティングリサーチのデータに近い。
人々の買物行動が位置データとクレジットカードデータとマッチングされて自動的に収集できれば、現在のマーケティングリサーチは無用の長物になる。
残るのは個人情報、プライバシーの問題だが、この問題は簡単には解決できないだろう。
(ダンカン・ワッツはYahooに入社してビッグデータ分析で「インフルエンサー」の分析を行ったが、そういった現象は観察=分析できなかったと言っている)
2012,7