トレーニングサービス

PentahoとHadoopフレームワークの基本(DI2000)

研修コース

本コースではHadoopならびにHadoopエコシステムの各コンポーネントを紹介し、ビッグデータを利用するために必要となる基本的な知識を学びます。 このコースで紹介するコンポーネントは以下のとおりです。

  • HDFS
  • Sqoop
  • Pig
  • Oozie
  • MapReduce
  • YARN
  • Hive
  • Impala
  • HBase
  • Flume
  • Spark

説明
コース名:DI2000
レベル:中級
対象者:データアナリスト
方法:インストラクター主導のオンサイト(お客様先)またはオープン(集合会場)研修
所要時間:2日
費用:18万円(税別)
カテゴリー:データ統合


Pentahoデータ統合は、以下を含むフル機能のETLソリューションを提供します。

  • ETL開発者を支援するリッチなGUIデザイナー
  • ビッグデータを含む幅広いデータタイプに対応する接続コネクタ
  • インメモリーキャッシュを含むエンタープライズクラスの拡張性とパフォーマンス
  • Hadoop、NoSQL、標準的なDB、分析用DBを含むデータ統合、分析、レポート機能
  • モダン、オープン、スタンダードなアーキテクチャ
  •  
本コースでは、レクチャーとハンズオンを通してPentahoデータ統合の総合的なスキルを 短期間に習得することができます。


次回オープン開催日程
日時 2017年9月19日(火)- 20日(水) 10:00-17:00
場所 当社指定 会議室(東京都内)※詳細お問い合わせください。
申込み お問合わせフォーム より「(参加月日)(コース名)Pentahoトレーニング申し込み」と記載いただき送信ください。


対象者

  • ・HadoopならびにHadoopエコシステムの各コンポーネントについて興味のある方
  • ・PDIを活用したHadoopコンポーネントの操作を習得したい方


コースのメリット

  • Hadoopをデータストアとして利用し、HadoopをPDIを通して使用する方法を学べる。
  • インタラクティブなハンズオン・トレーニングにより、効果的にスキルを吸収できる


達成スキル
このコースの完了時に、次のことができるようになります。

  • Hadoopに関連するコンポーネントを、コマンドラインだけでなくPDIを利用して使えるようになります
  • ビッグデータ運用で日々発生する、データ取得、取り込み、加工プロセスについてのベストプラクティスを習得できます


注意事項
1.PentahoをインストールしたWindows7 PC(64bit,i5,4GB以上)をご持参いただきます。
(ご用意頂くことが難しい場合ご相談に応じます)インストール方法は別途ご説明いたします。
2.テキストはトレーニング会場でご提供します。
3.カリキュラムの詳細は、都合により多少変更される場合がございます。
4.お申込み後のキャンセルは、コース開始の15日~8日前までは受講費用の半額、7日前~当日までは受講費用の全額をご請求させていただきます。 上記の各期日が非営業日の場合には、前日の営業日が期日となります。
5.このコースではPDIの機能を使います。そのため、Pentahoトレーニング データ統合の基本(DI1000)相当の知識が必要となります (必要に応じてPDIの基礎をトレーニングの際に説明いたします)
6.Linuxを使用したコマンドライン操作を行うため、これらの基本的な知識が必要になります。
7.HadoopならびにHadoopエコシステムの各コンポーネントについて知識は問いません。本コースにてご説明いたします