2016年3月アーカイブ

PentahoCE × Saikuプラグイン

|
Pentahoをご使用になっているみなさんの中には、EE版ではなくCE版を使っていたり、
Pentahoを使ってみたいけど、すぐにいきなりEE版を使うのは金銭的のも抵抗があるという方もおられると思います。

そもそもPentahoのEE版とCE版では何が違うのかというと、
(右記URLに比較が記載されています http://www.pentaho-partner.jp/purchase/func.html)

大きな違いとしてユーザーコンソール上でアナライザーレポートを作成することができません。

厳密にはアナライザーレポートの代わりにJpivotというレポート作成ツールがあるのですが、
Jpivotは実際にMDX(SQLのようなデータを呼び出す言語)を書かないといけないため、BIシステムを初めて触られる方にはかなり難しいツールです。

しかしながら、現在ではそのアナライザーレポートの代わりとしてSaikuAnalyticsというプラグインを使用することでレポートを作成することができるようになりました。

SaikuAnalyticsはPentahoと同じようなBIシステムであり、Pentaho内ではその一部機能をプラグインという形で提供されています。
(SaikuAnalytics http://www.meteorite.bi/)

Saiku_Essbase_Sample_Basic.png



そこで、今回はPentahoCE版のハンズオンとして、Saikuプラグインをインストールし、そのプラグイン上でレポートを作成するところまでブログ上の連載という形でしていこうと思います。

次回は早速CE版のインストールならびにSaikuプラグインのインストール方法について説明します。



PentahoではHadoopを含め数多くのデータベースとの接続をサポートしております。

その中でももちろんOracleDBとの接続もサポートしておりますが、
先日RAC構成のOracleDBとの接続についてご質問がありました。

ちなみに、RAC構成(Real Application Clusters)とはOracle独自の技術で、
1つのデータベースの中に複数のインスタンスを構築できるロードバランス型のクラスタリング構成のことです。
http://www.atmarkit.co.jp/ait/articles/0904/13/news115.html

この構成の場合は、データベース名に以下のようなDBのURLを入力します。
(このURLはOracleでRAC構成にしていただくと取得することができます。)

(DESCRIPTION=(ADDRESS_LIST= 
                  (ADDRESS=(PROTOCOL=TCP)(HOST=rac-node1)(port=1521))
                  (ADDRESS=(PROTOCOL=TCP)(HOST=rac-node2)(port=1521)))
                  (FAILOVER=on)(LOAD_BALANCE=on) 
                  (CONNECT_DATA=(SERVER=DEDICATED) 
                  (SERVICE_NAME=<service_name>))) 

そしてポート番号に-1を入力して、ユーザー名とパスワードを入れていただくと、
接続できます。



ビッグデータ、IoT、人工知能などデータやアナリティクスの重要性はますます高まりつつあります。一方で、必ずしもユーザーの分析したいデータを、分析したいタイミングで提供できていない企業が多いのではないでしょうか?

これは、データが散在してサイロ化していることが大きな原因ですが、ビッグデータ・IoTの時代にすべてデータを1つのDBに統合するのは、費用も手間もかかるため効率的ではありません。

「散在したデータを必要なタイミングで統合したい」
「ユーザーが必要なデータをセルフサービスで分析したい」
「IT部門の手間を極力かけずに、必要なタイミングでデータを提供したい」

こういった課題に対して、Pentahoの提唱する「Streamlined Data Refinery (ストリームライン データ精製)」は効果を発揮します。

Streamlined Data Refineryでは、以下の2つの人気のあるPentahoツールが主に使用されます。
・Pentahoデータ統合(略称 PDI):企業内外の様々なデータを簡単・柔軟に統合できる
・Pentahoアナライザー:Webベースのセルフサービス分析ツール、多次元分析が可能

この2つのツールの強みを生かして、ユーザードリブンでデータ統合して、データモデリングし、分析まで自動化しようというのがStreamlined Data Refineryの考え方です。

ここでのポイントは、「自動的なモデル生成」です。最新版のPDIでは、データ取得からモデル化までを自動的に行うことができるようになりました。(従来は別クライアントツールでIT部門が設定)

これによって、従来のHadoopや分析データベースにアナライザーやレポートでアクセスできるのに加えて、ユーザーが必要な時に、必要なデータを統合して、モデル化し、セルフサービス分析することが可能になります。


以下デモ動画((英語)です。詳細のデモや説明をさせていただくこともできますので、お気軽にご連絡ください。




★Have a nice open source day★
KSK Analytics Pentaho Team

2016年7月

          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31            

月別 アーカイブ