富士通研究所がビッグデータを簡単に活用するための新技術を開発
12 8/27
富士通研究所は、ビッグデータを簡単かつ短期間に活用することを可能とする2種類の技術を開発した。ビッグデータを活用するためには、大量に存在するデータを処理し、欲しい情報を得るために適切な手法で分析を行う必要があるが、業務や業種の知識、統計やマイニングなどの分析にかかわる知識など専門性が強く、効果が見えるまでのハードルが高い。現状ではユーザー、ベンダーともに専門家自体が少なく、利活用も進んでいない。そこで富士通研は、ビッグデータの活用と分析の領域で、それぞれ新しい技術を発表した。
ビッグデータの処理には、Hadoopに代表される「並列バッチ処理技術」や届いたデータをリアルタイムに処理する「複合イベント処理技術」といった異なるデータ処理技術が使われている。現状では、言語からUIまでそれぞれの開発・実行環境が異なるため、データの分析結果から得た知見を素早く処理に反映させることが難しい。
そこでまず富士通研は、異なるデータ処理の間をつなぐ開発・実行環境を開発した。同環境では蓄積データ処理と複合イベント処理のそれぞれの処理記述言語を統合的に扱えるほか、複合イベント処理プログラムの処理効率を自動的に向上させる機能を備える。
これにより、蓄積されたPOSデータから顧客の直近の購買動向を分析し、特定の顧客層向けのクーポンを発行するといった処理をプログラミングなしで簡単にできるようになり、実際に分析処理からイベント処理までの開発期間を同社比で約5分の1に短縮したとしている。
このほかに同社は、ビッグデータを利用する際の技術として、あらかじめデータ分析の専門家が創出した分析シナリオ(テンプレート)の中から、分析対象データの内容や特性に合せて、適応可能なテンプレートや組み合わせて利用できる追加データを自動的に推薦する技術を開発した。
データ分析の専門家による「どんなデータを組み合わせて利用するのか」「分析結果をどのように解釈して活用するのか」といった分析シナリオをテンプレートとして使うことにより、分析や業務の専門知識を持っていなくても、簡単にビッグデータの分析業務を行うことができる。