2014年6月アーカイブ

製品紹介セミナー開催しました

|
昨日、東京コンファレンスセンター品川にて恒例の弊社製品紹介セミナーを開催させて頂きました。
2014-06-26-09-37.jpg

今回は初の試みとして、お昼をはさみ9:30-16:30の終日開催です。
また午後はゲストスピーカーに専修大学の中原先生、NYSOLの前川様をお迎えし、ご講演頂きました。

長時間に渡りご参加頂きました皆様、ありがとうございました。
☆Please join and enjoy our seminar☆
KSK Analytics Pentaho Team

Pentahoのユーザコンソール上では、CSVファイルを読み込んでキューブやメタデータを作成することが可能です。
その際、デフォルトで、CSVファイルのデータはPentahoが持っている管理用のDBに格納されます。
しかし実際の運用では、別途DBサーバが準備されている場合がほとんどであり、データソースとしてはそちらで一括管理を行った方が良い場合が多いです。
そのようなときにデータを格納する場所を変更する必要が出てきますので、その方法をご紹介しておきたいと思います。


例として、まず一連の設定の流れを説明してみます。

最初に、以下の様に「Data Source Wizard」を起動します。
ManageSouces1.png

次に、以下のようにCSVファイルを選択します。
ManageSouces2.png

NEXTボタンをクリックすると、次に進みます。
ManageSouces3.png

Finishボタンをクリックすると、以下のメッセージが表示されますので、そのままOKボタンで完了です。
ManageSouces4.png

正常に作成されると、以下のようにData Sourceが登録されます。
このData Sourceを利用してアナライザーレポートやインタラクティブレポートを作成することが可能です。
ManageSouces5.png

この時、実際のデータは以下の場所に作成されます。
ManageSouces6.png

ここまでが、デフォルトの場合です。


前置きが長くなってしまいましたが、データストア先を変更したいと思います。
以下の手順で実施します。
※①と②に関しては、こちらもご参照ください

①BIサーバのJNDIを設定します
以下のファイルにJNDI設定を行います。
/server/biserver-ee/tomcat/webapps/pentaho/META-INF/context.xml
/server/biserver-ee/tomcat/webapps/pentaho/WEB-INF/web.xml

②Tomcatが保持しているJNDI設定を破棄します
以下のファイルを削除してください
/server/biserver-ee/tomcat/conf/Catalina/localhost/pentaho.xml

③データソースウィザードのデフォルト設定を上記で設定したJNDIに変更します
以下のファイルの設定を変更してください。
/server/biserver-ee/pentaho-solutions/system/data-access/settings.xml

<data-access-staging-jndi>Hibernate</data-access-staging-jndi>
↓ 一例ですが、以下のように変更します(JNDI名は①と②で設定したものを指定してください)
<data-access-staging-jndi>Test_Mart</data-access-staging-jndi>

④BIサーバを再起動します


以上により、データストア先が変更になりました。
再度、データソースウィザードからデータソースを作成すると、JNDIで新たに設定した接続先にデータが格納されるようになります。

データソースウィザードを使用してデータを閲覧する場合には、本設定もご検討いただければ幸いです。


今日のところは以上です。
それではまた。

★Have a nice open source day★
KSK Analytics Pentaho Team

今日はPentahoのPlug-Inのひとつ「Startup Rule Engine」をご紹介したいと思います。

このPlug-Inは、登録しておいたETL処理をPUC上で特定のタイミングで実行するためのものです。
実行できるタイミングとしては、以下のとおりとなっています。
・即時
・再起動時
・ログイン時
・ログアウト時
※ただし、現時点ではいまだバグが残っているようで、即時以外の実行ができくなっていました。正規サポートではない機能なので致し方ないのですが、今後改修されていくと思いますので、今しばらくお待ちいただければと思います。

Startup Rule Engineをインストールすると、以下の様な画面がPUC上に表示されます。
SRE1.png
左の実行ボタンをクリックすると、ETL(JobやTransformation)が即時実行されます。


インストール方法ですが、Plug-Inのいつもどおりの方法で、Marketplaceからのインストールとなります。
SRE2.png

インストール後、再起動を行い、再度ログインすると、以下のようにメニューが追加されます。
SRE3.png

上図にあるメニューをクリックすると、まず以下の様な画面が表示されます。この状態は、なにもETL処理が登録されていない場合です。
SRE4.png

次に、以下の場所にETL定義体を配置し、右上の更新ボタンをクリックすることでETL処理を読み込むことができ、最初のイメージのような画面になります。

server/biserver-ee/pentaho-solutions/system/startupRules/rules/配下
※rulesディレクトリ配下であれば、その下にディレクトリを作って配置しても大丈夫です。
※ディレクトリがない場合は自分でディレクトリを作成してください。


これにより、PUC上からETL処理を実行できるようになりますので、Pentaho運用時の柔軟性が増すのではないかなと考えています。
運用時にスクリプトを実行していたり、Spoonを起動してETLを実行している方は、一度このPlug-Inをお試しいただければと思います。

今日のところは以上です。
それではまた。

★Have a nice open source day★
KSK Analytics Pentaho Team

本ブログのkubotaさんのREST APIシリーズを見て、REST API触ってみましたので、シリーズに乗っからせていただきたいと思います。

PUCのデータソース管理から行うデータソースの追加と削除をpython3のurllibライブラリーで行ってみました。

import urllib, base64 # 今回使用するライブラリー

auth = "Basic " + base64.b64encode(b"admin:password").decode('utf8') # ヘッダーに渡す認証情報

url = "http://localhost:8080/pentaho/plugin/data-access/api/connection/add" # データソース追加のURL

db = {                     # 追加するデータベース接続情報
    "changed":True,
    "connectSql":"",
    "attributes":{},
    "connectionPoolingProperties":{},
    "extraOptions":{},
    "accessType":"NATIVE",
    "databaseName":"postgres",
    "databasePort":"5444",
    "hostname":"localhost",
    "name":"postgres_datasource",
    "username":"postgres",
    "databaseType":{
        "defaultDatabasePort":5432,"name":"PostgreSQL",
        "shortName":"POSTGRESQL",
        "supportedAccessTypes":["NATIVE","ODBC","JNDI"],
        "extraOptionsHelpUrl":"http://jdbc.postgresql.org/documentation/83/connect.html#connection-parameters"
    }
}

db = str(db).replace("True", "true").encode("ascii")  # Trueをjson用に小文字に変換して、bytesに変換。

req = urllib.request.Request(url,data=db,method='POST') # 先ほどのurlとデータとメソッド指定でリクエスト定義
req.add_header("Authorization", auth) #先ほどの認証情報をヘッダーに追加
req.add_header("Content-Type", "application/json") # json形式に

urllib.request.urlopen(req)


これでデータソースに追加されました。続いて削除:

url = 'http://localhost:8080/pentaho/plugin/data-access/api/connection/deletebyname?name=postgres_datasource' # 削除のURLとクエリに先ほど作成したデータソース名を

req = urllib.request.Request(url,method='DELETE')  # メソッドはDELETEにしてリクエスト定義
req.add_header("Authorization", auth) #ヘッダーに認証情報追加

urllib.request.urlopen(req) # 実行

こんな感じで追加と削除ができました。

こんにちは。

先日、「REST-APIでPentahoのユーザ・ロールを追加する」というブログを書きましたが、ロールの割り当てについて記載していなかったので、この場にて補足しておきたいと思います。

これも、とても簡単で以下のURLにリクエストを投げるだけです。
http://xxx.xxx.xxx.xxx:8080/pentaho/api/userroledao/assignRoleToUser

以下のイメージのとおりにETLを作成し、実行します。
assign_roles1.png
★補足情報★
■データグリッド
フィールド名:値
userName:testuser100
roleName:testrole100

■ロール割り当て
パラメータ名
userName:ユーザ名が格納されているフィールドを選択します
roleNames:ロール名が格納されているフィールドを選択します

認証の箇所でAdminユーザのログイン情報を入力する必要があります


このように、PUCを使用せずに指定ユーザに対してロールを割り当てることができます。
また「roleNames」というパラメータ名から分かるように、複数のロールを一度に割り当てることも可能です。その際は、「rolename100|rolename101」のようにパイプで区切って指定してください。

今後も、利用頻度の高いと思われるREST-APIについて、ご紹介してまいります。
それでは、失礼致します。


★Have a nice open source day★
KSK Analytics Pentaho Team

Pentahoトレーニング参加者様の声

|
トレーニングご参加者様よりのコメントを掲載させて頂きます。(お名前のあいうえお順)

皆様事前に快くご了解をいただき、ありがとうございました。

=========================================================
株式会社福島情報サービス
阿部 様
ご説明いただく中で、要所要所にCEとEEの違いや他社製品との違い等補足説明が
大変参考になりました。今回の研修を起点に、Pentaho(特にPDI)の知識をさら
につけていければと考えております。
ありがとうございました。
=========================================================
20140612A.jpg


======================================================
株式会社エッジスクウェア
杉本 様
現在、すでにPentaho ETLを使用してデータ取り込みを実施しているのですが初
日の説明のおかげで、改善するヒントが沢山いただけたと思っています。

また二日目のレポート作成や分析の見せ方は、今からまさに着手しようと思って
いたタイムリーに知りたいことだったのですが、何から手をつけていいかわから
ず途方に暮れていたところだったので、まずはベーシックな定型レポートを作成
して、お客様にブラウザで確認していただこうと思います。

3日目の内容は、いますぐ必要というわけではないですが、レポート作成などが
一通りできたら、次は多次元分析を提案していきたいと思います。
Pentahoというツールのことだけでなく、データ分析にかかわるいろいろなTips
が聞けたのが大変参考になりました。
======================================================
20140612M.jpg

======================================================
タック株式会社
戸川 様
今回の研修で、Pentahoのさまざまな機能について教えていただきました。
ETLから定型レポート生成の部分などは、さまざまなデータソースからデータを
集めて比較的容易にレポート生成できることが分かり、ぜひ活用したいと考えて
おります。
======================================================
20140612T.jpg


======================================================
株式会社石川コンピュータ・センター
中屋 様
Pentahoは適用範囲が非常に広いソフトウェアで、事前にある程度調査していた
のですが、予想していなかったような便利な機能があることを知ることができま
した。また講義に関連しての情報でもBI業界の動向にふれることができ、大変刺
激になりました。
======================================================
20140612N.jpg

Pentahoトレーニング開催

|
今週、弊社にて恒例のPentahoトレーニングを開催させて頂きました。

今回は東北、中部、北陸と各地からご参加いただいており、Pentahoの認知度や普及が日本全体に広がっていることを改めて感じます。
IMG_20140612_165433.jpg

ご参加頂いた皆様、ありがとうございました。

Pentahoは非常に広範囲に渡る製品で、独学するには時間がかかります。
またトレーニングではインプリ時の失敗例成功例や注意点、実践ノウハウなどを含む他ではお話しできない内容も含んでおります。

次回開催は7月22-24日の予定です。よろしければこちらをご参照の上、ぜひご参加下さい。
★Please join and enjoy our training★
KSK Analytics Pentaho Team

6月です。勉強会です。

|
6月に入り梅雨入りが近づいてきました。

先月からMongoDBやRなどの勉強会に参加することがマイブームです。
若くてモチベーションの高い方々とお会いすると、こちらも更にパワーアップができますネ。

ということで恒例となりますオープンソースBI勉強会のご案内です。
次回は6月17日、大崎開催となります。
ossbi7.png

弊社はPentahoエンタープライズ版にてビジネスを実施させていただいておりますが、こちらの勉強会は有志による活動です。

活発なユーザーコミュニティとエンタープライズビジネスはオープンソース系ソフトウェアの広がりをドライブする両輪。よろしければこちらよりご参加下さい

★Join and enjoy our community★
KSK Analytics Pentaho Team

こんにちは。

今日は、Pentahoが持つREST-APIを使用して、Pentahoのユーザやロールを追加する方法を紹介したいと思います。

環境は以下のとおりです。
・CentOS 6.4
・Pentaho 5.0.2

この環境にPDIのRESTクライアントを使用して、ユーザ・ロール登録を行います。

まずは、ユーザ登録です。
以下の様な、ETL処理を準備します。
rest1.png

①データグリッドで、ユーザ名とパスワードを入れておきます。
userName = testuser9
password = password

②XML追加で、以下の様なXMLを作成します。
<?xml version="1.0" encoding="UTF-8"?>
<user>
  <userName>testuser9</userName>
  <password>password</password>
</user>

③RESTクライアントにて、以下のURLにリクエストを投げます
http://xxx.xxx.xxx.xxx:8080/pentaho/api/userroledao/createUser
※認証の箇所でAdminユーザのログイン情報を入力する必要があります


次に、ロールの追加です。
ロールの追加はもう少し単純で、ロール名をパラメータで指定するだけでOKです。
rest2.png


①データグリッドで、ロール名を入れておきます。
rolename = testrole9

②RESTクライアントにて、以下のURLにリクエストを投げます
http://xxx.xxx.xxx.xxx:8080/pentaho/api/userroledao/createRole
※認証の箇所でAdminユーザのログイン情報を入力する必要があります


以上のように、REST-APIを利用すると、PUCへのアクセスを行わずにPentahoのいろいろな機能へアクセスすることが可能になり、外部システムとの連携が格段に行いやすくなります。
Pentahoが準備しているREST-APIはまだまだありますので、また機会を見つけてご紹介させていただきます。


それでは!

★Have a nice open source day★
KSK Analytics Pentaho Team

2014年9月

  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30