2016年7月アーカイブ

Saikuの概要について 
PentahoCE版のインストール方法について 
Saikuのインストール方法について


前回から少し間が空きましたが、今回はSaikuを使ってレポートを作成する方法を説明します。

まず、ユーザーコンソールより新規作成またはCreate NewからSaiku Analyticsをクリックしていただくと、前回見ていただいたようなSaikuのホーム画面がでますので、Create a new queryをクリックしてください。
そうすると、レポートを作成する画面が表示されます。

SnapCrab_NoName_2016-7-27_18-25-36_No-00.png
この画面を見ていただくと、左側にキューブを選択する画面とキューブごとのメジャーとディメンジョンの項目が表示され、また上部にはツールバーがあることがわかります。

操作方法ですが、基本的にPentahoと変わらず、表示したい項目をドラッグアンドドロップまたはダブルクリックすることで自動的に表がレンダリングされます。
(項目を表示するには、各ディメンションを展開する必要があります)

SnapCrab_NoName_2016-7-27_18-27-14_No-00.png


SnapCrab_NoName_2016-7-27_18-27-44_No-00.png
追加した項目を削除する場合は、Measuresの項目の場合は、項目をダブルクリックすることで削除することができます。
例えば上の状態からSalesを削除したい時は、Measuresのボックスに表示されているSalesをダブルクリックして削除します。

CEハンズオン-2.png


SnapCrab_NoName_2016-7-27_18-37-20_No-00.png
また、それ以外の項目(Rows、Columns、Filterに追加してあるもの)は項目をドラッグし、それぞれボックスの外にドラッグすることで削除ができます。


続いてフィルターについてですが、フィルターはすでにフィールドに追加してある項目にフィルターをかける場合と、フィールドに追加していない項目でフィルターをかける場合と2つのパターンがあります。

まず、すでにフィールドに追加してある項目にフィルターをかける場合、すでに追加してある項目をダブルクリックしていただくと、フィルタープロパティが表示されます。

SnapCrab_NoName_2016-7-27_18-39-1_No-00.png
例えば、YearをColumnsにドラッグし、その後、ドラッグしたYearをダブルクリックすると上のような画面が表示されます。

ここで、2003年のデータだけを表示さするようにフィルタリングをしたい場合は、2003にチェックを入れて、真ん中の>マークを押していただくと、右側に2003と表示されます。
この状態でOKを押していただくと、2003年のデータのみというフィルタリングがかかった状態になります。

SnapCrab_NoName_2016-7-27_18-39-12_No-00.png
SnapCrab_NoName_2016-7-27_18-39-20_No-00.png
続いて、フィールドに追加していない項目でフィルターをかける場合はFIlterというボックスに項目を追加した後、その項目をダブルクリックすることでフィルターの設定をすることができます。

例えば、ColumnsがYearでRowsがTerritoryという表でTypeにフィルタリングをかけたい場合、
Typeを別途Filterのボックスにドラッグアンドドロップしていただいた後、ダブルクリックすることでフィルタープロパティが表示されます。フィルタープロパティ後は先ほどと同様にフィルターする項目を選択し、OKボタンを押してください。

SnapCrab_NoName_2016-7-27_18-40-11_No-00.png


SnapCrab_NoName_2016-7-27_18-40-23_No-00.png
SnapCrab_NoName_2016-7-27_18-40-32_No-00.png
今回はレポート作成における簡単な操作を紹介いたしました。
次回はもう少し詳細な機能について説明していきます。

db tech showcase

|
IMG_0519.JPG

7月13日〜15日に秋葉原UDXで開催されましたdb tech showcase Tokyo 2016に行ってきました。

・データ活用はBIからAIへ〜DataRobotによる機械学習の自動化がデータの価値を変える
・Googleスケールの機械学習テクノロジー
・最新Cassandraの3.0とDataStax version5.0(GraphDB, Advanced Replication, Spark)
・Next Generation Apache Cassandra
・ビッグデータのオンライン分析:HadoopやOLAP技術
・SparkSQLを利用したBigData処理

と題された6セッションを聴いてきました。
最初のデータ活用はBIからAIへセッションで見せていただいたDataRobotのデモは
インパクト大でした。用意された教師データを読み取り、ターゲットを指定し、大きめのボタンをクリックすると
Kaggle上位ランカーの開発者達の知見に基づき、百数十?のアルゴリズムの中から選択され、
チューニングされた30ぐらいのモデルが並列で作成されるデモでした。
DataRobotに関してはこのセッションで知りましたので、衝撃的でした。

次のGoogleスケールセッションでは、ニューラルネットワークの説明で
中間層を増やすとより複雑な形を学習できることをtensorflow playgroundで見せていただき、
http://playground.tensorflow.org
tensorflowを使ったロボットの動画等をいくつか見せていただき、
Google Vision APIを使ったデモを見せていただきました。
http://vision-explorer.reactive.ai

Cassandraセッションはプレゼンで使用されていたスライドショーが
シェアされるとの説明がありました。

ビッグデータのオンライン分析セッションでは、
Apache KylinとApache DruidというOLAPエンジンが紹介されていました。
http://kylin.apache.org/
http://druid.io/
リアルタイムにペタバイト級のデータも処理できる技術みたいでした。

Bigdata処理セッションでは、IBM Bluemixで、RSSフィードを収集し、
Sparkで処理するデモが用意されてました。RSSフィードを収集し加工する際に
Node-REDというウェブブラウザベースのETLツールが使用されてました。

PentahoもこういったIoTな流れに追従してくれるものと期待しています。
以上です。

2016年9月

        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30  

月別 アーカイブ