tImpalaCreateTableの標準プロパティ - Cloud - 8.0

Impala

Version
Cloud
8.0
Language
日本語
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Open Studio for Big Data
Talend Real-Time Big Data Platform
Module
Talend Studio
Content
ジョブデザインと開発 > サードパーティーシステム > DBコンポーネント > Impala
データガバナンス > サードパーティーシステム > DBコンポーネント > Impala
データクオリティとプレパレーション > サードパーティーシステム > DBコンポーネント > Impala

このプロパティはStandardジョブフレームワークで実行されているtImpalaCreateTableを設定するために使います。

[Standard] (標準) tImpalaCreateTableコンポーネントは、ビッグデータファミリーに属しています。

このフレームワーク内のコンポーネントは、ビッグデータ対応のTalend 製品すべて、およびTalend Data Fabricで利用できます。

基本設定

[Property type] (プロパティタイプ)

接続の詳細の保存方法を選択します。
  • [Built-in] (組み込み): 一元的に保存されるプロパティデータはありません。
  • [Repository] (リポジトリー): プロパティが保管されるリポジトリーファイルを選択します。後続フィールドは、取得されたデータを使用して自動的に入力されます。

[Use an existing connection] (既存の接続を使用)

定義済みの接続の詳細を再利用する場合は、このチェックボックスをオンにして、[Component List] (コンポーネントリスト)ドロップダウンリストで目的の接続コンポーネントを選択します。

注: ジョブに親ジョブと子ジョブが含まれている時は、親ジョブと子ジョブの間の既存の接続を共有したい場合(たとえば、親ジョブで作成した接続を子ジョブと共有するなど)には、次のように実行します。
  1. 親レベルで、共有するデータベース接続を、そのデータベース接続そのものを作成する接続コンポーネントの[Basic settings] (基本設定)ビューに登録します。
  2. 子レベルで、登録済みのそのデータベース接続を読み取るために専用の接続コンポーネントを使用します。

ジョブレベル全体でデータベース接続を共有する方法の例は、Talend Studioユーザーガイドをご覧ください。

[Distribution] (ディストリビューション)

ドロップダウンリストで、使用するクラスターを選択します。リストのオプションは使用するコンポーネントによって異なります。これらのオプションの中でも、以下のオプションを使用するには特定の設定が必要です。
  • この[Distribution] (ディストリビューション)ドロップダウンリストに[Microsoft HD Insight]オプションが表示されている場合は、Microsoft HD Insightクラスターを利用できます。この場合、表示されているエリアでクラスターのHD Insightクラスター、Windows Azure Storageサービスへの接続を設定する必要があります。これらのパラメーターの詳細は、Talend Help Center (https://help.talend.com)で接続の手動の設定について検索してください。

  • Amazon EMRを選択している場合、Amazon EMRの開始方法の詳細は、Talend Help Center (https://help.talend.com)をご覧ください。

  • [Custom] (カスタム)オプションを使用すれば、リストにあるディストリビューションのものとは異なるクラスター、つまり、 Talend で正式にサポートされていないクラスターに接続できます。

  1. [Import from existing version] (既存のバージョンからインポート)を選択すると、正式にサポートされているディストリビューションをベースとしてインポートしてから、ベースディストリビューションで提供されていない他の必要なjarファイルを追加できます。

  2. [Import from zip] (zipからインポート)を選択すると、使用するカスタムディストリビューションの設定zipファイルをインポートできます。zipファイルには、Hadoopの各種エレメントのライブラリーおよびこれらのライブラリーのインデックスファイルが含まれている必要があります。

    Talend Exchangeでは、 Talend コミュニティのメンバーがすぐに使える設定用zipファイルが共有されており、[Hadoop configuration] (Hadoop設定)リストからダウンロードして接続に直接利用できます。ただし、さまざまなHadoop関連のプロジェクトが継続的に進展しているため、このリストから対応するディストリビューションの設定Zipが見つからないことがあります。その場合は、[Import from existing version] (既存のバージョンからインポート)オプションを使って、既存のディストリビューションをベースとして取得し、ディストリビューションに必要なjarを追加することをお勧めします。

    Talend はカスタムバージョンを公式にサポートしていません。 Talend とそのコミュニティでは、Studioからカスタムバージョンに接続するための方法を紹介していますが、Hadoopのディストリビューションとバージョンの種類は幅広いため、選択したバージョンの設定がスムーズに機能するかどうかは保証できません。そのような接続のセットアップは、Hadoopについてどんな問題でもご自身で対処できる十分な経験をお持ちの場合のみ行ってください。

    注:

    カスタムディストリビューションとこのコンポーネント間で作成する接続に関わるjarファイルがインポートされるように、このダイアログボックスのアクティブなチェックボックスをオフにしないでください。

    カスタムディストリビューションに接続して、その接続を共有する方法を段階的に説明するサンプルについては、Hortonworksをご覧ください。

[Version] (バージョン)

使用しているHadoopのディストリビューションのバージョンを選択します。使用可能なオプションは、使用しているコンポーネントによって異なります。

[Impala Driver] (Impalaドライバー)

ドロップダウンリストから使用しているドライバーを選択します。

[Host] (ホスト)

データベースサーバーのIPアドレスを入力します。

[Port] (ポート)

データベースサーバーのリスニングポート番号を入力します。

[Database] (データベース)

データベースの名前を入力します。

[Username] (ユーザー名)

データベースユーザー認証データを入力します。

[Password] (パスワード)

データベースパスワードを入力します。

[Additional JDBC Settings] (追加のJDBC設定)

作成するデータベース接続に接続の追加プロパティを指定します。

このオプションは、[Basic settings] (基本設定)ビューの[Use an existing connection] (既存の接続を使用)チェックボックスがオンになっている場合は利用できません。

[Use Kerberos authentication] (Kerberos認証を使用)

Kerberosセキュリティを実行しているImpalaシステムにアクセスする場合は、このチェックボックスをオンにし、このImpalaシステムのKerberosプリンシパルを入力します。

接続しているHadoopのディストリビューションによってはこのチェックボックスが表示されないこともあります。

[Schema] (スキーマ)[Edit schema] (スキーマを編集)

スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。

[Built-in] (組み込み): そのコンポーネントに対してのみスキーマを作成し、ローカルに保管します。

[Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保管されています。さまざまなプロジェクトやジョブデザインで再利用できます。

再使用するスキーマに整数またはファンクションのデフォルト値が指定されている場合は、これらのデフォルト値を引用符で囲まないようにご注意ください。引用符で囲まれている場合は手動で削除します。

スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。

  • [View schema] (スキーマを表示): スキーマのみを表示する場合は、このオプションを選択します。

  • [Change to built-in property] (組み込みのプロパティに変更): ローカルで変更を行うためにスキーマを組み込みに変更する場合は、このオプションを選択します。

  • [Update repository connection] (リポジトリー接続をアップデート): リポジトリーに保存されているスキーマに変更を加え、変更後にそのコンテンツをすべてのジョブにプロパゲートするかどうかを決める場合は、このオプションを選択します。

    変更を現在のジョブにのみ反映する場合は、変更後、[No] (いいえ)を選択し、[Repository Content] (リポジトリーのコンテンツ)ウィンドウで再びこのスキーマのメタデータを選択します。

[Table Name] (テーブル名)

作成するテーブルの名前を入力します。

[Action on table] (テーブルでのアクション)

テーブル作成のためのアクションを選択します。
  • [Create table] (テーブルを作成): テーブルが作成されます。
  • [Create table if not exists] (テーブルが存在しない場合は作成): テーブルが存在しない場合は作成されます。

[Format] (形式)

作成するテーブルの専用データ形式を選択します。
  • TEXTFILE
  • SEQUENCEFILE
  • RCFILE
  • PARQUET
  • AVRO
  • KUDU (Kudu形式は、Talendが提供する8.0.1 R2023-02以降のStudioマンスリーアップデートをインストール済みである場合のみ利用できます)

使用可能なデータ形式は、使用しているHadoopディストリビューションのバージョンによって異なります。

使用するファイル形式が[PARQUET]である場合は、特定のPARQUET JARファイルを検索してStudioにインストールするように指示するプロンプトが表示されることがあります。
  • Hiveへの接続モードが[Embedded] (組み込み)の場合、ジョブはローカルマシンで実行され、StudioにインストールされているこのJARを呼び出します。

  • Hiveへの接続モードが[Standalone] (スタンドアロン)の場合、ジョブはHiveをホストするサーバーで実行され、このJARファイルは接続先のクラスターのHDFSシステムに送信されます。したがって、[Basic settings] (基本設定)ビューの対応するフィールドでNameNode URIが正しく定義されていることをご確認ください。

このJARファイルはApacheのサイトからダウンロードできます。外部モジュールのインストール方法は、Talend製品に外部モジュールをインストールする方法をご覧ください。外部モジュールをインストールする方法の詳細は、Talend Help Center (https://help.talend.com)をご覧ください。
パーティションの設定

作成するテーブルにパーティションカラムを追加するには、このチェックボックスをオンにします。選択したら、追加する必要のあるパーティションカラムのスキーマを定義する必要があります。

[Format] (形式)ドロップダウンリストでKUDUを選択すれば、[Kudu partition] (Kuduパーティション)というパラメーターで作成sされるパーティションの数を設定できます。デフォルト値はHASH PARTITIONS 3です。詳細は、KuduのドキュメンテーションでPartitioning tablesをご覧ください。

[Set file location] (ファイルのロケーションの設定)

デフォルト以外のディレクトリーにImpalaテーブルを作成する場合は、このチェックボックスをオンにして、テーブルのコンテンツを保持するために使用するディレクトリーをHDFSに入力します。

これは通常、[Advanced settings] (詳細設定)タブの[Create an external table] (外部テーブルを作成する)チェックボックスをオンにして外部Impalaテーブルを作成する必要がある場合に役立ちます。

[Use S3 endpoint] (S3エンドポイントを使用)

[Set file location] (ファイルのロケーションを設定する)チェックボックスをオンにして、外部Impalaテーブルを作成すると、[Use S3 endpoint] (S3エンドポイントを使用)チェックボックスが表示されます。

この[Use S3 endpoint] (S3エンドポイントを使用)チェックボックスをオンにしたら、表示されたフィールドに次のパラメーターを入力する必要があります。
  • [S3 bucket] (S3バケット): テーブルを作成するバケットの名前を入力します。

  • [Bucket name] (バケット名): ジョブの依存項目を保存するために使用するバケットの名前を入力します。S3に既存のバケットを用意しておく必要があります。
  • [Temporary resource folder] (一時リソースフォルダー): ジョブの依存項目を保存するディレクトリーを入力します。たとえば、バケット内の/temp_resources フォルダーに依存項目を書き込むには、temp_resourcesと入力します。

    ランタイムにこのフォルダーが既に存在する場合、そのコンテンツは新しい依存項目によって上書きされます。そうでない場合、このフォルダーは自動的に作成されます。

  • [Access key] (アクセスキー)[Secret key] (シークレットキー): 使用するAmazon S3バケットへの接続に必要な認証情報を入力します。

    パスワードを入力するためには、パスワードフィールドの横にある[...]ボタンをクリックし、ポップアップダイアログボックスにパスワードを二重引用符で囲んで入力して[OK]をクリックし、設定を保存します。

S3ファイルの形式はS3N (S3ネイティブファイルシステム)です。

S3で作成されたImpalaテーブルは実際には外部テーブルであるため、この[Use S3 endpoint] (S3エンドポイントを使用)チェックボックスは、[Create an external table] (外部テーブルの作成)が選択された状態で使用する必要があります。

詳細設定

[Like table] (テーブルのように)

このチェックボックスをオンにし、コピーするImpalaテーブルの名前を入力します。これにより、データをコピーせずに既存のテーブルの定義をコピーできます。

外部テーブルの作成

このチェックボックスをオンにすると、作成するテーブルが外部Impalaテーブルになります。この種のImpalaテーブルは、データがHDFSにある場合、生データをそのまま残します。

通常、ファイルシステムに存在する共有データにアクセスするには、外部テーブルの方が適しています。

[Table comment] (テーブルコメント)

作成するテーブルに使用する説明を入力します。

[As select] (選択として)

このチェックボックスをオンにして、Selectステートメントに基づくImpalaテーブルを作成するためのAs selectステートメントを入力します 。

[Table properties] (テーブルのプロパティ)

StudioのHadoopエンジンで使用されるデフォルトのプロパティをオーバーライドするカスタムImpalaテーブルプロパティを追加します。

[tStatCatcher Statistics] (tStatCatcher統計情報)

このチェックボックスをオンにすると、コンポーネントレベルでログデータを収集できます。

グローバル変数

グローバル変数

ERROR_MESSAGE: エラーが発生した時にコンポーネントによって生成されるエラーメッセージ。これはAfter変数で、文字列を返します。この変数はコンポーネントにこのチェックボックスが存在し、[Die on error] (エラー発生時に強制終了)がオフになっている場合のみ機能します。

Flow変数はのコンポーネントの実行中に機能し、After変数はコンポーネントの実行後に機能します。

フィールドまたは式に変数を入力する場合は、Ctrl + スペースを押して変数リストにアクセスし、使用する変数を選択します。

変数の詳細は、Talend Studioユーザーガイドをご覧ください。

使用方法

使用ルール

このコンポーネントはスタンドアロンとして機能します。

前提条件

Talend Studio との操作を確実に行うには、Hadoopディストリビューションを適切にインストールする必要があります。以下のリストに、MapR関連の情報などを示します。

  • MapRクライアントは必ずStudioのあるマシンにインストールして、そのマシンのPATH変数にMapRクライアントライブラリーを追加します。MapRのドキュメンテーションによると、各OSバージョンに対応するMapRクライアントのライブラリーは、MAPR_INSTALL\ hadoop\hadoop-VERSION\lib\nativeにあります。たとえば、Windows版のライブラリーは、\lib\native\MapRClient.dllにあるMapRクライアントのjarファイルにあります。詳細は、MapRからhttp://www.mapr.com/blog/basic-notes-on-configuring-eclipse-as-a-hadoop-development-environment-for-maprをご覧ください。

    指定のライブラリーを追加しないと、no MapRClient in java.library.pathというエラーが発生する可能性があります。

  • たとえば、[Window] (ウィンドウ)メニューの[Preferences] (環境設定)ダイアログボックスにある[Run/Debug] (実行/デバッグ)ビューの[Job Run VM arguments] (ジョブ実行VMの引数)エリアで、-Djava.library.path引数を設定するために使われます。この引数により、そのMapRクライアントのネイティブライブラリーへのパスがStudioに渡されるので、サブスクリプションベースのユーザーはデータビューアーをフルに活用して、MapRに保存されたデータをStudioでローカルに表示できます。

Hadoopディストリビューションのインストール方法の詳細は、使用しているHadoopディストリビューションに対応するマニュアルをご覧ください。