未来を予測するデータ分析基盤とは? 目的や重要性、選び方を解説
インターネットの普及により、昔と比べて働き方は大きく変化しました。
毎日の業務にデータを活用することも当たり前となりましたが、それでもまだビッグデータというと専門的な響きがしますよね。ビッグデータは今後、ビジネスだけでなく、社会の在り方をも一変させるだろうといわれています。
そして、ビッグデータ有効活用のために欠かせないのが「データ分析基盤」です。
データ分析力は今後、今まで以上に重要視され、競争力の一つとして欠かせない武器となっていくでしょう。
「データ分析基盤とは?」「なぜ必要なのか」「選び方のポイント」について、わかりやすく解説していきます。
目次[非表示]
- 1.データ分析基盤とは
- 1.1.ビジネスにおけるビッグデータの重要性
- 1.2.データを支える基盤を作る
- 2.なぜデータ分析基盤が必要か
- 2.1.データ分析の目的
- 2.2.未来を予測する「データ」
- 3.データ分析基盤の選び方
- 3.1.1.高可用性と高信頼性
- 3.2.2.柔軟性と迅速性
- 3.3.3.複雑性に対応する能力
- 4.まとめ
データ分析基盤とは
データ分析時代ともいわれる現代のビジネス界を支える「データ分析基盤」とは、そもそも何を指すのでしょうか? その理解に欠かせない「ビッグデータ」から順番に解説していきます。
ビジネスにおけるビッグデータの重要性
ビッグデータとは「ビッグデータ3Vの法則」と呼ばれる法則によって以下のように定義されており、情報システムに蓄積されていく膨大な量と種類を持つデータ群を指します。
- Volume(量)…データ量の多さ
- Variety(多様性)…データ種類や情報源の豊富さ
- Velocity(高速性)…処理や入出力のスピード
あまりの膨大さに管理が追いつかなかったビッグデータですが、近年、これを素早く簡単に分析できる技術が登場。ビックデータの分析が可能になったことで、顧客分析が欠かせないマーケティングをはじめ、製造業や医療現場など、実にさまざまなビジネスシーンで活用の場が広がっています。膨大な量と種類のデータによって、立体的に物事を分析できることから、現在のビジネス界に大きな影響を与えています。
データを支える基盤を作る
一方、データ分析基盤とは、膨大な量と種類のデータを高速に分析し、それらビッグデータをビジネスに活用できるようにするために必要となる「土台(プラットフォーム)」のことです。
データ分析基盤のインフラ環境には、オンプレミス(自社内の物理サーバ)、クラウド(クラウド環境の仮想サーバ)などがあり、さらに、複数のクラウドを組み合わせた「マルチクラウド」、オンプレミスとクラウドを組み合わせた「ハイブリッドクラウド」など、さまざまな運用方法があります。
なぜデータ分析基盤が必要か
ここからはデータ分析基盤についてもう少し掘り下げて、その目的や重要性について詳しく解説していきます。高度な予測分析技術を持つことには一体、どのような意義があるのでしょうか。
データ分析の目的
「膨大なデータを意味あるものとして再利用し、新しい価値を創出する」これがデータ分析の最も大きな目的です。
従来までのデータ分析は主に、過去に起きたことや現在起きていることの分析、進捗状況の把握などに使われていました。
しかし、IT技術の進歩によって収集可能なデータ量が増え、複雑な分析を行えるようになったことで、データ分析の可能性はさらに大きく広がったのです。
未来を予測する「データ」
新しい価値創出のほかにも、データの重要性がよくわかるこんな話があります。
アメリカ合衆国の統計学者であるネイト・シルバー氏が、米大統領選挙区内の人種や宗教などのあらゆるデータを過去にさかのぼって収集し、収集したデータを独自の手法で分析したところ、選挙結果を50州中49州言い当てたという話です。
このように、より高度なデータ分析技術は「未来の情報」を手に入れることにもつながります。
競合他社の一歩先を行くデータは、競争力の源泉となるでしょう。
データ分析基盤の選び方
データは世界中で常に増え続けています。データ量が膨大に増えていくことを考えると、今後はクラウド基盤の利用が欠かせなくなっていきますが、クラウドのみで運用するとなると、コスト負担が高まるケースやパフォーマンス上の問題、データの機密性の問題が生じるなどのデメリットもあります。
データ分析基盤を選ぶ際には、それを支えるシステムが重要です。ここからは、そんなシステムに欠かせない3つのポイントについて解説します。
1.高可用性と高信頼性
「システムが継続して機能できる能力」と「システムが要求された機能を安定して提供できる能力」を可用性、信頼性といいます。高可用性とは、簡単にいえば「障害などのアクシデントが発生してもシステムを停止させることなく稼働し続ける業務継続性のこと」を指します。高信頼性は、「パフォーマンス、データ保護、耐災害性機能など、企業の大切なデータの損失を防ぐ堅牢なシステム」であると言えるでしょう。データ分析基盤においては、高可用、高信頼なシステムを選択することが重要です。
2.柔軟性と迅速性
今求められているのは前述の可用性を維持しつつイノベーションを促進し、SLA(サービス品質保証)を満たすソリューションです。システムの設計や構築が迅速に行え、かつ柔軟にシステムの変更ができれば、導入コスト・運用コストの削減にもつながります。
コスト削減という明確なメリットを示せることは、データ分析基盤導入の大きなハードルの一つ「経営陣や財務部門の説得」を有利に進めるためにも欠かせないポイントといえるでしょう。さらに、高性能なシステムであれば、膨大なデータを迅速に分析することが可能となり、分析結果をビジネスに素早く反映させることで、イノベーティブなビジネス価値創出にもつながります。
3.複雑性に対応する能力
データ分析に利用されるアプリケーション、データベースなどは今後も爆発的に増加することが予想されます。多様な種類・高度な分散化、複雑な依存関係、予測不可能な需要。人智を超えた対応能力が必要です。SLA(サービス品質保証)を維持しつつ高度な運用分析と自動化が求められてきます。アプリケーションとインフラストラクチャの完全な可視化、リアルタイムでのリソース分析、自動的な最適化。アプリケーション、ハードウェア、仮想マシンなどを多面的に分析し、かつ最適な構成変更を実現することで、ビジネスからの要求に合わせてリアルタイムで対応できることが重要となります。
まとめ
新しい価値をもたらし、未来を予測するためのビッグデータ。ビッグデータを企業競争力とし、その価値を最大にするためにも「データ分析基盤」がいかに重要であるかということがおわかりいただけたのではないでしょうか。
「SAP HANA」のようにリアルタイム性が求められるデータ分析基盤を支えるためには高性能なシステムが必要不可欠であり、同様に、データ損失を防ぐ堅牢なデータストレージも欠かすことができません。
シスコシステムズと日立製作所により共同開発・検証を行った「Cisco and Hitachi Adaptive Solutions」では、高性能・高信頼な「Hitachi Virtual Storage Platform(Hitachi VSP)」と、ストレージ仮想化技術である「Hitachi Global-active Device(GAD)」による高可用性と高信頼性の維持を実現し、データアクセス・業務の継続が可能です。
「Cisco Unified Computing System (Cisco UCS)」を始め、SAP認定取得済みの製品をベースに構成しており、シスコシステムズと日立製作所が共同で事前検証を行っているため、安心して迅速に構築・運用を行え、労力やコストを大幅に削減しつつ、用途やワークロードに合わせたソリューションのご提供が可能です。小規模の導入から徐々に拡張していくなど、柔軟な増設やスケールアウトもできるため、リスクを抑えて実施することが可能です。AppDynamicsとCisco Workload Optimization Managerの組み合わせにより、アプリケーション、ハードウェア、仮想マシンをも含めたパフォーマンスの自動的な最適化が可能になります。
また、CTCのグループ会社で保守・サポート業務を行うCTCテクノロジーのエンジニアが、全国の保守拠点から迅速に対応いたしますので、保守・サポート体制も万全です。
新事業のシステム立ち上げを素早く効率的に行いたい方、SAPシステム更新の必要に迫られている方、ハイブリッドクラウド・仮想化統合基盤・VDIの導入を考えている方はぜひ「Cisco and Hitachi Adaptive Solutions」の導入をご検討ください。