Hadoop接続を設定 - 7.3

処理(インテグレーション)

Version
7.3
Language
日本語 (日本)
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Open Studio for Big Data
Talend Open Studio for Data Integration
Talend Open Studio for ESB
Talend Real-Time Big Data Platform
Module
Talend Studio
Content
ジョブデザインと開発 > サードパーティーシステム > 変換処理コンポーネント
データガバナンス > サードパーティーシステム > 変換処理コンポーネント
データクオリティとプレパレーション > サードパーティーシステム > 変換処理コンポーネント

手順

  1. [Run] (実行)をクリックしてビューを開き、[Hadoop Configuration] (Hadoop設定)タブをクリックして、このジョブのHadoop接続を設定するためのビューを表示します。
  2. [Property type] (プロパティタイプ)リストから、[Built-in] (組み込み)を選択します。[Repository] (リポジトリー)で使用する接続を作成している場合、[Repository] (リポジトリー)を選択すると、Studioではこのジョブの接続情報のセットが利用されます。
  3. [Version] (バージョン)エリアで、使用するHadoopディストリビューションとそのバージョンを選択します。
    • Google Cloud Dataprocを使用する場合は、Google Cloud Dataprocを参照してください。

    • 使用するClouderaまたはHortonworksのバージョンが[Version] (バージョン)ドロップダウンリストに見つからない場合は、Studio内のダイナミックディストリビューションの設定を使用してディストリビューションに追加することもできます。
      • ディストリビューションのバージョンリストに、[Builtin] (組み込み)というラベルの付いたバージョンがいくつかあります。Studioのリリース時に、これらのバージョンがダイナミックディストリビューションメカニズムを使用してTalendによって追加され、Studioと共に提供されました。これらはTalendによって認定されており、したがって、公式にサポートされており、すぐに使用できます。
      使用するClouderaのバージョンがこのドロップダウンリストに見つからない場合は、Studio内のダイナミックディストリビューションの設定を使用してディストリビューションに追加することもできます。
      • ディストリビューションのバージョンリストに、[Builtin] (組み込み)というラベルの付いたバージョンがいくつかあります。Studioのリリース時に、これらのバージョンがダイナミックディストリビューションメカニズムを使用してTalendによって追加され、Studioと共に提供されました。これらはTalendによって認定されており、したがって、公式にサポートされており、すぐに使用できます。
    • リストに対応するディストリビューションが見つからない場合は、[Custom] (カスタム)を選択し、Studioで公式にはサポートされていないHadoopディストリビューションに接続します。この[Custom] (カスタム)オプションを使用する手順の例は、カスタムHadoopディストリビューションへの接続を参照してください。

  4. [Name node] (名前ノード)フィールドに、使用するディストリビューションのマスターノードのNameNodeを入力します。たとえば、hdfs://tal-qa113.talend.lan:8020のようにします。
    • MapRディストリビューションを使用する場合は、このフィールドのmaprfs:///をそのままにしておくだけで、MapRクライアントが接続の作成時に残りの部分を処理します。ただし、MapRクライアントが正しくインストールされている必要があります。MapRクライアントのセットアップ方法の詳細は、MapRドキュメントの次のリンクを参照してください:http://doc.mapr.com/display/MapR/Setting+Up+the+Client

    • WebHDFSを使用している場合、ロケーションはwebhdfs://masternode:portnumberとなります。WebHDFS with SSLはまだサポートされていません。

  5. [Resource Manager] (リソースマネージャー)フィールドに、ディストリビューションの場所を入力します。たとえば、 tal-qa114.talend.lan:8050のようにします。
    • その後、使用するHadoopクラスターの構成に応じて以下のパラメーターを引き続き設定をできます (パラメーターのチェックボックスをオフのままにすると、実行時に、使用するHadoopクラスター内のこのパラメーターに関する設定は無視されます):

      • [Set resourcemanager scheduler address] (リソースマネージャースケジューラーアドレスの設定)チェックボックスをオンにして、表示されたフィールドにスケジューラーアドレスを入力します。

      • [Set jobhistory address] (ジョブ履歴アドレスの設定)チェックボックスをオンにして、使用するHadoopクラスターのJobHistoryサーバーの場所を入力します。これにより、現在のジョブのメトリックス情報がそのJobHistoryサーバーに保存されます。

      • [Set staging directory] (ステージングディレクトリーの設定)チェックボックスをオンにして、実行プログラムで作成される一時ファイル用のHadoopクラスターで定義されたこのディレクトリーを入力します。一般的には、このディレクトリーはディストリビューションのyarn-site.xmlmapred-site.xmlなどの設定ファイル内にあるyarn.app.mapreduce.am.staging-dirプロパティの下にあります。

      • [Use datanode hostname] (データノードホスト名を使用)チェックボックスをオンにして、これらのホスト名によるデータノードへのアクセスをジョブに許可します。これは、実際にはdfs.client.use.datanode.hostnameプロパティをtrueに設定しています。S3Nファイルシステムに接続する場合、このチェックボックスをオンにする必要があります。

  6. Kerberosセキュリティを実行しているHadoopクラスターにアクセスする場合は、このチェックボックスをオンにし、表示されるフィールドにネームノードとしてKerberosのプリンシパル名を入力します。これにより、ユーザー名を使って、Kerberosに保存された認証情報に対して認証を実行できます。
    • このクラスターが5.0.0バージョン以上のMapRクラスターである場合、セキュリティ対応MapRへの接続に記載の説明に従って、MapRチケット認証設定を追加または代替として設定できます。

      この設定により、ジョブで定義されたユーザー名用の新しいMapRセキュリティチケットが実行ごとに生成されます。同じユーザー名に対して発行された既存のチケットを再使用する必要がある場合は、[Force MapR ticket authentication] ()チェックボックスと[Use Kerberos authentication] ()チェックボックスをオフにすると、そのチケットを即座に自動的に見つけることができます。

    また、このコンポーネントはMap/Reduceの計算を実行するため、対応するフィールドのディストリビューションに応じてジョブ履歴サーバーやリソースマネージャーまたはジョブトラッカーなど関連するサービスを認証する必要があります。これらのプリンシパルはディストリビューションの設定ファイルの中にあります。たとえばCDH4ディストリビューションでは、リソースマネージャーのプリンシパルはyarn-site.xmlファイルで設定され、ジョブ履歴のプリンシパルはmapred-site.xmlファイルで設定されています。

    ログインにKerberosのkeytabファイルが必要な場合は、[Use a keytab to authenticate] (認証にkeytabを使用)チェックボックスをオンにします。keytabファイルには、Kerberosのプリンシパルと暗号化されたキーのペアが含まれています。使用するプリンシパルを[Principal] (プリンシパル)フィールドに入力し、keytabファイルへのアクセスパスを[Keytab] フィールドに入力します。このkeytabファイルは、ジョブが実際に実行されているマシン、たとえば、Talend Jobserverに保存する必要があります。

    keytabが有効なジョブは、プリンシパルに任命されたユーザーでなくても実行できますが、使用するkeytabファイルの読み取り権限が必要です。たとえば、user1というユーザー名でジョブを実行し、使用するプリンシパルがguestの場合、user1に使用するkeytabファイルの読み取り権限があることをご確認ください。

  7. [User name] (ユーザー名)フィールドに、ディストリビューションにログインするためのユーザー名を入力します。このフィールドを空白のままにすると、Studioをホストするマシンのユーザー名が使用されます。
  8. [Temp folder] (一時フォルダー)フィールドで、Map/Reduce処理中に生成される一時ファイルを保存するフォルダーのHDFSパスを入力します。
  9. サーバーのパス区切り記号のデフォルト値はそのままにしておきます。区切り記号をコロン(:)以外のHadoopディストリビューションのホストマシンで使用されているPATH変数またはその他の単語に変更している場合は除きます。その場合、値はホストで使用しているものに変更する必要があります。
  10. これらの一時ファイルを保持する場合を除き、[Clear temporary folder] (一時フォルダーを削除する)チェックボックスをオンにしたままにします。
  11. [Compress intermediate map output to reduce network traffic] (中間マップ出力を圧縮してネットワークトラフィックを削減)チェックボックスをオンにしたままにしておくと、マッパータスクパーティションを複数のリデューサーに転送する時間を短縮できます。
    ただし、ジョブ内のデータ転送がごくわずかな場合は、この圧縮によって余分なCPUリソースが消費されないようにこのチェックボックスをオフにして、圧縮ステップを無効にすることをお勧めします。
  12. カスタムHadoopプロパティを使用する必要がある場合、[Hadoop properties] (Hadoopプロパティ)テーブルにカスタマイズしたプロパティを入力します。その後、ランタイムにStudioがHadoopのエンジンに使用するデフォルトのプロパティが、カスタマイズした設定に上書きされます。
    Hadoopで必要なプロパティについて詳しくは、http://hadoop.apache.orgに記載されているApacheのHadoopについてのドキュメンテーションを参照するか、使用するHadoopディストリビューションのドキュメンテーションを参照してください。
  13. HDFSの透過的暗号化をクラスターで有効にしている場合は、[Setup HDFS encryption configurations] (HDFS暗号化設定)チェックボックスをオンにし、[HDFS encryption key provider] (HDFS暗号鍵プロバイダー)フィールドが表示されたら、KMSプロキシのロケーションを入力します。

    HDFSの透過的暗号化とそのKMSプロキシの詳細は、Transparent Encryption in HDFSを参照してください。

  14. [Set memory] (メモリのセット)チェックボックスをオンにしてHadoopシステムでの計算実行で適切なメモリ割り当てをセットし、マッピングを調整して計算を減らすことができます。

    設定するメモリパラメーターは[Map (in Mb)][Reduce (in Mb)][ApplicationMaster (in Mb)]です。これらのフィールドは、MapとReduceの計算、およびYARNのApplicationMasterに動的にメモリを割り当てることができます。

    リソースマネージャーやそのスケジューラーとアプリケーションマスターの詳細は、http://hortonworks.com/blog/apache-hadoop-yarn-concepts-and-applications/など、YARNのドキュメントを参照してください。

    YARNやMapReduceのメモリの設定をどのように決めるかについては、使用しているディストリビューションのドキュメントを参照してください。たとえば、Hortonworksの場合は、http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.0.6.0/bk_installing_manually_book/content/rpm-chap1-11.htmlを参照してください。

  15. Cloudera V5.5+をお使いの場合は、[Use Cloudera Navigator] (Cloudera Navigatorの使用)チェックボックスをオンにして、ディストリビューションのCloudera ナビゲーターが、コンポーネント間のスキーマの変更を含め、ジョブ来歴をコンポーネントレベルまでトレースできるようにすることが可能です。

    このオプションを有効にしたら、以下のパラメーターを設定する必要があります。

    • [Username] (ユーザー名)および[Password] (パスワード): Cloudera Navigatorへの接続に使用する認証情報です。

    • Cloudera Navigator URL: Cloudera Navigatorの接続先を入力します。

    • [Cloudera Navigator Metadata URL] (Cloudera NavigatorメタデータURL): ナビゲーターメタデータの場所を入力します。

    • [Activate the autocommit option] (自動コミットオプションの有効化): このジョブの実行の最後にCloudera Navigatorが現在のジョブの来歴を生成するよう設定するには、このチェックボックスをオンにします。

      このオプションを指定すると、Cloudera NavigatorはHDFSファイルとディレクトリー、HiveクエリーまたはPigスクリプトなど、利用可能なすべてのエンティティの来歴を生成するように強制されるため、ジョブの実行速度の低下を招くことから本番環境には推奨されません。

    • [Kill the job if Cloudera Navigator fails] (Cloudera Navigatorにエラーが発生したらジョブを強制終了): このチェックボックスをオンにすると、Cloudera Navigatorへの接続が失敗した時にジョブの実行が停止されます。

      それ以外の場合は、オフにしてジョブが実行を継続できるようにしてください。

    • Disable SSL validation (SSL認証を無効化): SSL認証プロセスを経ずにCloudera Navigatorに接続することをジョブに指示する場合は、このチェックボックスをオンにします。

      この機能は、ジョブのテストを容易にするためのものですが、プロダクションクラスターで使用することは推奨されません。

  16. Hortonworks Data Platform V2.4.0以降をお使いで、クラスターにAtlasがインストール済みの場合は、[Use Atlas] (Atlasの使用)チェックボックスをオンにして、コンポーネント間のスキーマの変更を含め、ジョブ来歴をコンポーネントレベルまで有効にできます。

    このオプションを有効にしたら、以下のパラメーターを設定する必要があります。

    • Atlas URL: Atlasの接続先を入力します。多くの場合はは、http://atlasノードの名前:ポートです。

    • [Die on error] (エラー強制終了): Atlasへの接続の問題など、Atlas関連の問題が発生した場合にジョブの実行を停止するには、このチェックボックスをオンにします。

      それ以外の場合は、オフにしてジョブが実行を継続できるようにしてください。

    [Username] (ユーザー名)および[Password] (パスワード)フィールドに、Atlasにアクセスするための認証情報を入力します。