自社で資産を持つことなくITリソースが利用できることで評価されたクラウドの真価は、今や「データ活用」にあるとされる。それを裏付けるかのように、クラウドサービス大手によるBIツールベンダーの買収が相次いだ。クラウド時代のデータ活用の動向を考察する。(取材・文/谷川耕一)
クラウドの価値は「データ活用の場」に
共有リソースで低コストなITインフラを手に入れられることから評価されたクラウドは、次第にコストだけでなく、柔軟性や俊敏性に価値があるといわれるようになる。そして最近では、クラウド上でデータを分析・活用し、企業のデジタルトランスフォーメーションに貢献することを容易に実現できるかが、新たな価値となっている。つまり、クラウドの価値が「データ活用」へと移ってきているということだ。
それを証明するかのように、BIツールやデータ活用ソリューションを提供する企業がクラウドベンダーに相次ぎ買収された。今年6月6日、米グーグルのクラウド部門であるグーグル・クラウドが、データ可視化ツールを提供する新興BIベンダーとして注目されてきていた米Lookerを26億ドルで買収すると発表した。<
マルチクラウド対応BIで日本市場に本格進出 グーグルによる買収後も戦略は変わらず――Looker >
グーグルのクラウドサービス「Google Cloud」はもともとデータ活用環境の「BigQuery」の評価が高く、圧倒的シェアを持つアマゾンのクラウドサービス「Amazon Web Services(AWS)」を主に利用する企業でも、ビッグデータ管理にはBigQueryを採用し、マルチクラウドで運用することもある。BigQueryがクラウド上のデータ活用環境として評価が高い理由として、調査会社アイ・ティ・アールの平井明夫リサーチ・フェローは、「情報が見やすく、テンプレートなどが豊富にそろっていることもアナリストなどに受け入れやすいのでは」と指摘する。グーグルがLookerを手に入れたことで、Google Cloudのデータ活用環境は、今後さらに強化されるとみられる。
ITR 平井明夫リサーチ・フェロー
グーグルのLooker買収に続き、6月10にはセールスフォース・ドットコムがBI大手のタブローソフトウェア買収を発表した。買収価格は157億ドルで、桁違いの投資額でクラウドBI環境を手に入れた。<
タブローを157億ドルで買収 分析機能を強化し顧客体験を最適化――米セールスフォース・ドットコム >セールスフォースはSaaSの運用で生まれる膨大なデータに対しAI、アナリティクスの技術を適用する「Einstein」を持ち、その強化のため、昨年インテグレーションサービスの米ミュールソフトを約65億ドルで買収している。同社の「MuleSoft」を使えば、Salesforce以外にあるデータもEinsteinで容易に扱うことができる。これに加えてセルフサービスBIなどで頭角を現していたタブローを統合し、自社のSaaSに閉じていたデータ活用環境を大きく広げようとしている。
既存のデータウェアハウス(DWH)ではなく、ここ数年はビッグデータブームやIoTの普及を背景に、新しいデータソースから価値を得るためにクラウドを利用する企業が増えている。このとき利用されるのはIaaSではなくPaaSだ。「IoTなどの膨大なデータを扱うにあたり、従来のOracle Databaseなどを使うのではかなりのコストがかかる。そこでAmazon RedshiftやBig Queryが採用されてきた」と平井氏は話す。
またAIや機械学習など、新しいデータ分析の技術を利用する際もPaaSのほうが早く、楽に始められる。例えば、Big Queryにデータを蓄積し、集められたデータに対しGoogle Cloudで用意されている機械学習技術やデータ分析機能を組み合わせて適用する。AI機能などは、API経由で比較的容易に連携できるのだ。
既存DWHとBI環境のクラウド化は過渡期に
新しいデータソースに対するデータ活用の環境は、最初からクラウド上で構築されることが多い。一方で、既存のDWHとBIを組み合わせたデータ可視化・分析環境は、まだそれほどクラウドに移行されていない。そもそもBig Queryのような環境は、従来のデータベースと同じようには扱えないため、オンプレミスのデータウェアハウスの移行先には適さないのだ。
またオンプレミスの大規模なDWHでは、ETLツールを使い日次などのタイミングでデータを基幹システムなどから抽出し転送する形で運用されているが「こういった処理はクラウド化には向いていない」と平井氏。インターネット越しにオンプレミスの基幹系から抽出した大規模なデータを転送するには、回線の太さなどに問題が出ることもある。さらに既存の基幹システムからデータを抽出するバッチ処理は、DWH部分をクラウド化してもそのままオンプレミスに残ってしまう。つまり分析環境だけをクラウドに持って行っても、あまりクラウド化のメリットが見込めないのだ。
今後基幹系のクラウド化が進めば、DWHのクラウド化も本格化するだろう。そうなれば、クラウドでは後発だが、Oracle Databaseで既存システムにおける膨大な実績があるオラクルにも優位性は出てくる。Oracle Autonomous Data Warehouse Cloudであれば、オンプレミスのOracle Databaseとアーキテクチャーが同じで移行がしやすい。その上、DWHで課題となるチューニングも含め、運用を自動化できる。「既存のDWH環境のクラウド化では、DB管理者のコストを含めて考えればAutonomous Data Warehouse Cloudは魅力的に映るかもしれません」と平井氏は言う。
不足するデータサイエンティストをどう補うか
データ活用環境をクラウドに構築、移行すればインフラ環境の技術者は減らせるが、データサイエンティストなどの人材が増えるわけではない。データ活用環境のクラウド化と同時に、いかにしてデータサイエンティストを増やすか。あるいは一般社員でもデータ活用を行える新たな環境を構築できるか。それが、クラウド上のデータ活用の成否を左右する。
足りないデータサイエンティストを補う目的として昨今注目されているのが、データロボットの機械学習プラットフォーム「DataRobot」や、データビークルの分析ツール「dataDiver」などだ。「例えば、データサイエンティストが一定期間で構築できるモデルの数などは、DataRobotを使うことで10倍くらいは処理できるだろう。そのためデータサイエンティストを十分確保できない企業で、DataRobotのようなツールがちょっとしたブームになっている」と平井氏は語る。
一方で、クラウドに対応するBIツールは、プレイヤーが乱立し群雄割拠の状況にある。従来のBIツールはレポートとアドホッククエリーの機能を備えていれば十分で、機能比較も容易だった。ここ最近は高度なデータ分析を行うアナリティクス機能が加わり、さらにセルフサービスBIの機能も追加されている。またダッシュボードもあれば、ビジュアライゼーション機能も豊富だ。そこにAIや機械学習機能までもが組み合わせられる。
さまざまな機能を網羅しており、さらにクラウド化されたサービスでは数カ月ごとに機能追加も行われる。そのためスイート型のBI環境であれば、今やどれを選んでも大差はないかもしれないと捉えると、今後は機能の豊富さで比較するのではなく、ベンダーの姿勢が自社のクラウド化方針に沿っているか、それを見極める必要も出てくる。
今後は企業全体のデータ活用リテラシーを高める必要があり、その状況に応じてツール環境を見直すことにもなるだろう。そう捉えれば、今後のBIツール選びでは、機能や性能だけでなくツールやデータベースにロックインされない環境を選んでおく必要も出てくるとみられる。
[次のページ]クラウド時代のデータ活用への提言 1