このプロパティはSpark Streamingジョブフレームワークで実行されているtJDBCLookupInputを設定するために使います。
Spark Streaming tJDBCLookupInputコンポーネントはデータベースファミリーのコンポーネントです。
このフレームワーク内のコンポーネントは、Talend Real Time Big Data PlatformおよびTalend Data Fabricで使用できます。
基本設定
[Property type] (プロパティタイプ) |
[Built-In] (組み込み)または[Repository] (リポジトリー)のいずれか。 |
|
[Built-In] (組み込み): プロパティデータは一元的に保存されません。 |
|
[Repository] (リポジトリー): プロパティを保存するリポジトリーファイルを選択します。 |
[Use an existing connection] (既存の接続を使用する) |
定義済みの接続の詳細を再利用するには、このチェックボックスをオンにして、[Component List] (コンポーネントリスト)で該当する接続コンポーネントをクリックします。 |
JDBC URL |
使用するデータベースのJDBC URL。たとえば、Amazon RedshiftデータベースのJDBC URLはjdbc:redshift://endpoint:port/databaseです。 Spark V1.3を使用している場合、このURLには次のような認証情報が含まれている必要があります:
jdbc:mysql://XX.XX.XX.XX:3306/Talend?user=ychen&password=talend |
[Driver JAR] (ドライバーJAR) |
必要なドライバーJARをロードするには、このテーブルに記入してください。これを行うには、テーブルの下の[+]ボタンをクリックして、必要に応じてドライバーJAR用行数を増やします。セルを選択し、セルの右側にある[...]ボタンをクリックして、[Module] (モジュール)ダイアログボックスを開くと使用するドライバーJARを選択できます。たとえば、RedshiftデータベースのドライバーjarはRedshiftJDBC41-1.1.13.1013.jarです。 詳細は、[Importing a database driver] (データベースドライバのインポート)を参照してください。 |
クラス名 |
指定したドライバーのクラス名を二重引用符で囲んで入力します。たとえば、RedshiftJDBC41-1.1.13.1013.jarドライバーの場合、入力する名前はcom.amazon.redshift.jdbc41.Driverになります。 |
Username (ユーザー名)とPassword (パスワード) |
接続するデータベースに対する認証情報を入力します。 パスワードを入力するには、パスワードフィールドの横にある[...]ボタンをクリックし、ポップアップダイアログボックスにパスワードを二重引用符の間に入力し、[OK] をクリックして設定を保存します。 Spark V1.4以降でのみ使用できます。 |
[Schema] (スキーマ)と[Edit schema] (スキーマの編集) |
スキーマとは行の説明のことです。処理して次のコンポーネントに渡すフィールド(カラム)数を定義します。Sparkジョブを作成する場合、フィールドの命名時は予約語のlineを避けます。 |
|
Built-in (組み込み): そのコンポーネントのみのスキーマを作成して、ローカルに保存します。 |
|
Repository (リポジトリー): スキーマは作成済みで、リポジトリーに保管されており、さまざまなプロジェクトやジョブデザインで再利用できます。 |
スキーマを変更するには[Edit schema] (スキーマの編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを使用できます。
|
|
[Table Name] (テーブル名) |
データを読み取るテーブルの名前を入力します。 |
[Query type] (クエリータイプ)と[Query] (クエリー) |
スキーマ定義に対応する必要がある、フィールドの適切な順序に特に注意を払うデータベースクエリーステートメントを指定します。 クエリーの結果には、tMapで使用する結合キーに一致するレコードのみ含まれていなければなりません。言い換えれば、一致するレコードのみがルックアップフローに読み込まれるSQLステートメントを作成するため、メインフローのスキーマをtMapで使用する必要があります。 この方式では、重複レコードはメモリに読み込まれず、後続のコンポーネントに出力されます。 |
[Guess Query] (クエリーの推測) |
[Guess Query] (クエリーの推測)ボタンをクリックして、[Query] (クエリー)フィールド内のテーブルスキーマに対応するクエリーを生成します。 |
[Guess schema] (スキーマの推測) |
[Guess schema] (スキーマの推測)ボタンをクリックしてテーブルスキーマを取得します。 |
詳細設定
[Additional JDBC parameters] (その他のJDBCパラメーター) |
作成するデータベース接続に追加の接続プロパティを指定します。プロパティはセミコロンで区切られ、各プロパティはキー/値ペアです。たとえば、encryption=1;clientname=Talendになります。 このフィールドは、[Use an existing connection] (既存の接続を使用する)チェックボックスがオンの場合には使用できません。 |
[Connection pool] (接続プール) |
このエリアでは、各Sparkエグゼキューターに、同時に開いたままにする接続の数を制御するための接続プールを設定します。以下の接続プールパラメーターに与えられているデフォルト値は、ほとんどのユースケースでそのまま使用できます。
|
[Evict connections] (接続の無効化) |
接続プール内の接続を破棄する条件を定義するには、このチェックボックスをオンにします。オンにすると、以下のフィールドが表示されます。
|
[Trim column] (カラムのトリミング) |
このテーブルは使用されているスキーマで自動入力されます。トリミングするカラムに対応するチェックボックスを選択します。 |
使用方法
使用ルール |
このコンポーネントは開始コンポーネントとして使用され、出力リンクを必要とします。 このコンポーネントは、データベースに接続するために同じジョブ内にあるtJDBCConfigurationコンポーネントを使用する必要があります。このコンポーネントの横にtJDBCConfigurationコンポーネントをドロップし、このコンポーネントの[Basic settings] (基本設定)を設定してtJDBCConfigurationを使用する必要があります。 このコンポーネントは、所属するSpark Streamingコンポーネントのパレットと共に、Sparkストリーミングジョブを作成している場合にだけ表示されます。 特に明記していない限り、このドキュメントのシナリオでは、[Standard] (標準)ジョブ、つまり従来の Talend データ統合ジョブだけを扱います。 |
[Spark Connection] (Spark接続) |
[Run] (実行)ビューの[Spark Configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリを指定する必要があります。
この接続は、ジョブごとに有効になります。 |