2014年12月アーカイブ

openstreetmap_local
Pentahoアナライザーレポートでは地図上にデータをプロットし、地図上でドリルダウンしながらデータを絞り込むようなことができますが、地図の表示には通常インターネット接続が必要です。

オフラインでも表示が可能かとのご質問をいただきましたので調べましてみましたところ、可能だったことがわかりました。

使用した主なソフトウェア:
Apache HTTP 2.4.10
postgresql 9.3.5
PostGIS 2.1.4
osm2pgsql 0.86.0
mapnik 2.2.0
mod_tile 0.1
carto 0.14.0

手元の環境、OSX10.9で試したので、Macでの手順になりますが、設定方法を書き留めておきたいと思います。参考にした下記ページではUbuntu14.04での方法が載っています。LinuxやWindows環境でも同じソフトウェア一式で可能になるかと思います。

http://switch2osm.org/serving-tiles/manually-building-a-tile-server-14-04/


Pentaho FAQ (レポート関連)

|

Pentaho FAQ (ETL編)

|
アップグレードした際などに、アップグレードができているか確認するためにバージョンを確認したい
時があるかと思われます。
BAサーバーであれば、ユーザーコンソールの
「ヘルプ」>「バージョン管理」から確認が可能ですが、
DIサーバーは、
ブラウザで以下のURLを入力する事で確認が可能です。
http://localhost:9080/pentaho-di/api/version/show

Affect Version: 5.2.0

Di_version.png

よろしければ、お試しください。

★Have a nice open source day★
KSK Analytics Pentaho Team



皆様はjiraをご存知でしょうか? オープンソースソフトウェアの世界で標準となっている、Web系のプロジェクト管理、課題管理システムです。一番わかりやすいのはバグ管理ですネ。誰もがバグ報告することができ、誰が担当でどのバージョンが修正ターゲットで進捗はどうかなどがわかります。

Pentahoもこのシステムを利用しており、誰でもブラウザで状況を見ることができます。 jira.pentaho.com 
jira1.jpg

そして、PentaDataIntegration(PDI,Pentahoデータ統合)にプラグインを追加すると、このシステムのデータを利用加工できるようになるのです。
まだこのプラグインはバージョン0.5ですが、動かしてみました。
プラグインはマーケットプレースからワンクリックで導入できます。(Spoonの再起動が必要)
jira0.jpg

jiraにはJQLという独自クエリ仕様があり、これを利用してデータを抽出するとJason入力で受け取れます。
(今回のJQLはjiraの検索で自動生成されたものをコピペしました)
jira2.jpg
jira3.jpg

今回はjira接続をご紹介しましたが、その他にも便利そうなアドインがマーケットプレースにありますので、ぜひ皆様もお試し下さい。

また同様のプラグインをつくれば、API公開しているすべてのWebサービスがPDIによりデータ統合可能になります!
Javaプログラミングの知識があれば誰でもアドイン開発ができ、様々なデータを統合利用できるというのはすばらしいことだと思います。

プラグインの作り方など弊社へのお問い合わせはこちらよりご連絡下さい。
★Have a nice data integration day★
KSK Analytics Pentaho Team


ReportDesignerのウィザード機能

|
Pentahoの定型レポート作成ツールReport Designerにはレポート作成が簡単にできるReport Wizard機能があります。
データソース、項目を選択し、テンプレートを選ぶだけでレポートができる、便利な機能です。
pentahoRDnew.jpg

新規レポートでゼロからレポート作成する手間を省くため、レポートウィザードで作成した後、修正をするというアプローチをとりたくなりますが、この方法はお奨めしません。

理由1:レポートウィザードで作成したレポートにはバインド(複数の構造を結合して属性などを一括制御する)が多様されており、個々の配置の移動などに手間がかかる
理由2:ウィザードのUIにしかない属性もある

pentahoRDnew2.jpg
ウィザードは変更なしで済むレポートの作成で利用し、修正が必要なレポートはゼロからレポートを作成することをお勧めします。

★Select your report creation method based on your requirement★
KSK Analytics

Pentahoトレーニング参加者様の声

|
今月開催させて頂きましたトレーニングご参加の皆様からコメントを頂きましたので、
ご紹介致します。(お名前のあいうえお順)


=========================================================
株式会社シーグリーン
小泉 様
講義の項目がとても多く覚えることも多かったです。
ですが、講師の方の説明は分かりやすかったので、密度の濃いトレーニングでした。
=========================================================
IMG_20141204_164121.jpg


=========================================================
Infiniware株式会社
N 様
BIの概念や、Pentahoソフトウェアの概要や構成など、自分ではなかなか調べきれない
Pentahoの知識を、 3日間の凝縮されたトレーニング内で、ひと通り学ぶことができました。
また、講師の方も、実務経験の豊富な方で、 Pentahoの歴史や開発の動向等、貴重な話も
同時に伺え、 あっという間に終了した感があります。
Pentahoについては、日本語の情報が少なく、また、外観を得るのが難しいため、 正確な
情報を素早くつかんで調査を加速するのには、 とてもいい内容なのではと思いました。
今回学んだことを元に、社内でお客様に、社会に、どう活かせるのか?という事を考えながら
Pentaho と向き合っていきたいと考えています。
=========================================================


=========================================================
株式会社 中電シーティーアイ
 旗崎様
Pentahoの使用方法だけではなく、システム構築経験やBIの動向などについても一緒に
教えていただいたので非常に有用な研修でした。どうもありがとうございました。
=========================================================
IMG_20141204_164100.jpg


ご参加いただいた皆様、快くコメント掲載にご了解をいただきました皆様、ありがとうございました。

他にも"もっと早く受講すればよかった"との嬉しいお声を頂いております。

次回は1月27-29日の開催となります。
ご参加検討の方はお席に限りがありますので、ぜひお早目にこちらをご参照の上お申込み下さい

★Please join and enjoy our training ★
KSK Analytics Pentaho Team
先日、大阪にて初となるPentahoETLトレーニング(1日)を開催致しました。

参加者様からコメントを頂きましたので、ご紹介致します。

"1日コースという限られた時間内でPentaho DIの勘所をつかむことができました。
ハンズオンの実習も適度な量とレベルで理解を深めるのに役立ちました。
突っ込んだ質問、細かい疑問にも適切な回答が得られたことも満足です。"

ご参加いただいた皆様、ありがとうございました。

今後も大阪で随時トレーニングを開催していく予定です。
開催が決まりましたら、弊社HPでお知らせいたします。
http://www.pentaho-partner.jp/

★Join and enjoy our Pentaho Training★
KSK Analytics Pentaho Team



本日はPDIのAppendStreamsステップのお話です。

これです。
appendst1.png
2つのデータストリームを1つにマージする機能を提供しています。

一応サンプルを貼っておきます。
appendst3.png
AppendStreamsステップに2本のHopが接続されています。

こっちはAppendStremsステップの設定内容です。
appendst2.png
Head hopとTail hopには、2本のHopに接続しているそれぞれの前ステップを設定します。
こうすることで、Head hopから取得したデータの下部にTail hopのデータを追記してくれるのがAppendStreamsステップの機能です。

ただし、PDIではAppendStreamsステップを使用しなくても、同じフィールドを持つデータストリーム同士であればデータをマージすることが可能です。
このような感じです。
appendst4.png
このようにAppendStreamsステップを使用しなくてもデータをマージすることが可能です。

AppendStreamsステップを使用する場合としない場合とで何が違うのかというと、順序を担保するかしないかというところです。
AppendStremasステップでは、Head hopとTail hopとで、上下の順序を担保してくれますが、使用しない場合は、順序を担保せずただただマージを行います。

というわけで、2つのデータストリームをマージするときに、順序を担保したいときにはAppendStreamsステップを使う必要がありますよ、というお話でした。

今日のところは以上です!

★Have a nice open source day★
KSK Analytics Pentaho Team

PDIでETL処理を作成するときに、読み込み元のデータが0件だった場合の対応に苦心した方、いらっしゃるのではないかと思います。
読み込み元データが0件だったとき、通常であればデータが0件だったよとログに出力したいと思います。もっと言えば、エラーとしてアラートを上げたいと思うこともあるでしょう。
PDIで上記のことをやるには少々工夫が必要となります。なぜならば、PDIではデータが0件だった場合、データ読み込み用のSTEP以外は全て何も処理せずに正常終了してしまうからです。

PDIでは、データが0件かどうかを判断して、それ用に処理を作成する必要があります。
例えば以下の様なETLであれば0件データの判別が可能です。
empty1.png

ここでポイントとなるのが、「Detect empty stream」です。
これは、もしデータが0件だった場合、1件だけデータを作成(null)して、次のステップに処理を渡してくれます。
以下の様な動作です。
0件の場合→1件だけデータを生成し後続処理へ
0件でない場合→データを0件として後続処理へ

これにより、上図の処理では、0件の場合に「Abort」処理が実行され処理がエラーとなります。
また、0件でない場合には、「Abort」処理に渡るデータが0件となるので、「Abort」処理は何もせずに正常終了します。
さらに、「Block this step until steps finish」にて、「Detect empty stream」処理の終了を待つように設定しておくことで、データが0件でない場合は、そのまま通常の処理を実行することが可能となります。

この例は、あくまで一例ですので、さまざまな実装方法が考えられますが、0件データの判別には「Detect empty stream」を使うといろいろと簡単になりますので、お困りの方は一度お試しいただければ幸いです。

PDIの使用方法、またはETL処理の作成でお困りの方は、弊社トレーニングや各種サービスをご用意しておりますので、こちらよりお問い合わせいただければと思います。
お気軽にご連絡ください!

★Have a nice open source day★
KSK Analytics Pentaho Team

弊社東京オフィスのご案内

|
今日から12月、慌ただしい年末です。

お打合せやトレーニング受講などで弊社にはじめてご来社頂く方もいらっしゃいますので、以下にご案内させて頂きます。


最寄駅はJR,地下鉄の新橋駅、地下鉄東銀座駅になりますが、築地市場駅や汐留駅からも徒歩圏です。昭和通りに面していますので道はわかりやすいですが、いくつか並ぶ小さなビルの1つで、ビルの一階にあるダンデライオンという飲食店が目印になるかと思います。
tokyooffice1.jpg

ビルの入館口にインターホンがありますが、使用せずにそのままドアを開けて奥にあるエレベータで5階へお上り下さい。
tokyooffice2.jpg

エレベータの前にベルがございますので、鳴らしてお待ちください。
tokyooffice3.jpg

もし場所がわからないなどご不明な点がありましたら、お電話頂ければご案内致します。
電話番号 03-6228-9432

皆様のご来社をお待ちしております。

We are looking forward to you visiting our office★
KSK Analytics Pentaho Team

2015年1月

        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31