対象製品...Big Data
Big Data Platform
Cloud Big Data
Cloud Big Data Platform
Cloud Data Fabric
Data Fabric
Real-Time Big Data Platform
手順
-
[Repository] (リポジトリー)ツリーで、[Metadata] (メタデータ)ノードの下の[Hadoop cluster] (Hadoopクラスター)ノードを展開し、使用するHadoop接続を右クリックしてコンテキストメニューから[Create Hive] (Hiveの作成)を選択します。
-
接続ウィザードが表示されます。ここで、[Name] (名前)、[Purpose] (目的)、[Description] (説明)など、ジェネリックプロパティを入力します。[Status] (ステータス)フィールドは、[File] (ファイル) > [Edit project properties] (プロジェクトプロパティを編集)で定義できます。
-
[Next] (次へ)をクリックして次の手順に進みます。ここでは、HBaseの接続情報を入力します。[DB Type] (DBの種類), [Hadoop cluster] (Hadoopクラスター), Distribution[Distribution] (ディストリビューション), [HBase version] (HBaseのバージョン)、[Server] (サーバー)は、前の手順で選択したHadoop接続から継承されたプロパティが自動的に入力されます。
[Hadoop cluster] (Hadoopクラスター)リストから[None] (なし)を選択すると、手動モードに切り替わり、継承されたプロパティが破棄されるので、すべてのプロパティを手動で入力しなければなりません。作成された接続は、[Db connection] (データベース接続)ノードの下だけに表示されます。
-
[Port] (ポート)フィールドには、接続するHBaseデータベースのポート番号を入力します。
注:
Hadoopサーバーのホスト名をクライアントやホストのコンピューターで識別可能にするには、クライアントとホストのコンピューターの関連するhostsファイルにそのホスト名でIPアドレスとホスト名のマッピングエントリーを追加する必要があります。たとえば、Hadoopサーバーのホスト名がtalend-all-hdpで、IPアドレスが192.168.x.xの場合、マッピングエントリーは192.168.x.x talend-all-hdpとなります。Windowsシステムでは、このエントリーをC:\WINDOWS\system32\drivers\etc\hostsに追加します(WindowsがCドライブにインストールされている場合)。Linuxシステムでは、このエントリーを/etc/hostsのファイルに追加します。
-
カラムをフィルターしたい場合は、[Column family] (カラムファミリー)フィールドにカラムファミリーを入力し、[Check] (確認)をクリックして接続を確認します。
-
Kerberosセキュリティを実行しているHadoopディストリビューションにアクセスする場合は、このチェックボックスをオンにし、表示されるフィールドにネームノードとしてKerberosのプリンシパル名を入力します。これにより、ユーザー名を使って、Kerberosに保存された認証情報に対して認証を実行できます。
ログインにkeytabファイルが必要な場合は、[Use a keytab to authenticate] (認証にkeytabを使用)チェックボックスをオンにします。keytabファイルには、Kerberosのプリンシパルと暗号化されたキーのペアが含まれています。使用するプリンシパルを[Principal] (プリンシパル)フィールドに入力し、keytabファイルへのパスを[Keytab]フィールドに入力します。
keytabが有効なジョブは、プリンシパルに任命されたユーザーでなくても実行できますが、使用するkeytabファイルの読み取り権限が必要です。たとえば、user1というユーザー名でジョブを実行し、使用するプリンシパルがguestの場合、user1に使用するkeytabファイルの読み取り権限があることをご確認ください。
-
使用するHadoopまたはHBaseディストリビューションの設定をカスタマイズする必要がある場合は、[Hadoop properties] (Hadoopのプロパティ)の横の[...]ボタンをクリックしてプロパティテーブルを開き、カスタマイズするプロパティを追加します。その後、ランタイムにStudioがHadoopのエンジンに使用するデフォルトのプロパティが、カスタマイズした設定に上書きされます。
[Parent Hadoop properties] (親Hadoopのプロパティ)テーブルは、現在編集中のプロパティテーブルの上部に表示されます。この親テーブルは読み取り専用で、現在のHBase接続のベースとなる親Hadoop接続のウィザードで定義されたHadoopのプロパティがリストされます。
-
[Finish] (終了)をクリックして変更を確定します。
新しく作成したHBase接続は、[Repository] (リポジトリー)ツリーの[Hadoop cluster] (Hadoopクラスター)ノードの下に表示されます。また、HBase接続はデータベース接続のため、この接続は[Db connections] (データベース接続)ノードの下にも表示されます。
注:
この[Repository] (リポジトリー)ビューは、使用しているStudioのエディションによって異なる場合があります。
タスクの結果
環境コンテキストを使用してこの接続のパラメーターを定義する必要がある場合は、
[Export as context] (コンテキストとしてエクスポート)ボタンをクリックして対応するウィザードを開き、以下のオプションから選択します。
-
[Create a new repository context] (新しいリポジトリーコンテキストを作成): 現在のHadoop接続からこの環境コンテキストを作成します。つまり、ウィザードで設定するパラメーターは、これらのパラメーターに設定した値と共にコンテキスト変数として取られます。
-
[Reuse an existing repository context] (既存のリポジトリーコンテキストを再利用): 特定の環境コンテキストの変数を使用して現在の接続を設定します。
コンテキストの実装をキャンセルする必要がある場合は、
[Revert Context] (コンテキストを復元)をクリックします。使用中のコンテキスト変数の値は、このウィザードに直接入力されます。
この[Export as context] (コンテキストとしてエクスポート)機能の使い方に関するステップバイステップの説明は、メタデータのコンテキストとしてエクスポート、およびコンテキストパラメーターを再利用して接続を設定をご覧ください。