Apache Spark BatchのtSetKeyStoreプロパティ - Cloud - 8.0

キーストア

Version
Cloud
8.0
Language
日本語
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Real-Time Big Data Platform
Module
Talend Studio
Content
ジョブデザインと開発 > サードパーティーシステム > 認証コンポーネント > Keystore
データガバナンス > サードパーティーシステム > 認証コンポーネント > Keystore
データクオリティとプレパレーション > サードパーティーシステム > 認証コンポーネント > Keystore
Last publication date
2024-02-28

これらのプロパティは、[Spark Batch]ジョブのフレームワークで実行されているtSetKeyStoreを設定するために使われます。

[Spark Batch]tSetKeyStoreコンポーネントは、認証ファミリーに属しています。

このフレームワークのコンポーネントは、すべてのサブスクリプションベースのビッグデータ対応のTalend製品およびTalend Data Fabricで使用できます。

基本設定

[TrustStore type] (TrustStoreタイプ)

使用するTrustStoreタイプを選択します。[PKCS 12]または[JKS]を選択できます。

[TrustStore type] (TrustStoreタイプ)

クライアントが信頼する証明書のリストを含むTrustStore証明書ファイル(ファイル名を含む)へのパスを入力するか参照します。

TrustStore password (TrustStoreパスワード)

TrustStoreデータの整合性を確認するために使用されるパスワードを入力します。

Need Client authentication (クライアント認証が必要)

このチェックボックスをオンにすると、Keystoreデータが検証されます。選択したら、以下の3つのフィールドに値を入力します:

- [Keystore type] (Keystoreタイプ): 使用するKeystoreタイプを選択します。[PKCS 12]または[JKS]を選択できます。

- [Keystore file] (Keystoreファイル): Keystoreデータを含むファイル(ファイル名を含む)へのパスを入力するか参照します。

- [Keystore password] (Keystoreパスワード): このKeystoreのパスワードを入力します。

[Check server identity] (サーバーIDをチェック)

このチェックボックスをオンにすると、URLのホスト名とサーバーのホスト名との一致をジョブが確認できるようになります。一致しない場合、検証メカニズムでこの接続を許可するかどうか確認されます。

使用方法

使用ルール

このコンポーネントは、他のコンポーネントに接続せずに使用されます。

このコンポーネントは、所属するSpark Batchのコンポーネントのパレットと共に、Spark Batchジョブを作成している場合にだけ表示されます。

特に明記していない限り、このドキュメンテーションのシナリオでは、標準ジョブ、つまり従来の Talend Data Integrationジョブだけを扱います。

[Spark Connection] (Spark接続)

[Run] (実行)ビューの[Spark configuration] (Spark設定)タブで、ジョブ全体でのSparkクラスターへの接続を定義します。また、ジョブでは、依存jarファイルを実行することを想定しているため、Sparkがこれらのjarファイルにアクセスできるように、これらのファイルの転送先にするファイルシステム内のディレクトリーを指定する必要があります。
  • Yarnモード(YarnクライアントまたはYarnクラスター):
    • Google Dataprocを使用している場合、[Spark configuration] (Spark設定)タブの[Google Storage staging bucket] (Google Storageステージングバケット)フィールドにバケットを指定します。

    • HDInsightを使用している場合、[Spark configuration] (Spark設定)タブの[Windows Azure Storage configuration] (Windows Azure Storage設定)エリアでジョブのデプロイメントに使用するブロブを指定します。

    • Altusを使用する場合は、[Spark configuration] (Spark設定)タブでジョブのデプロイにS3バケットまたはAzure Data Lake Storageを指定します。
    • オンプレミスのディストリビューションを使用する場合は、クラスターで使われているファイルシステムに対応する設定コンポーネントを使用します。一般的に、このシステムはHDFSになるため、tHDFSConfigurationを使用します。

  • [Standalone mode] (スタンドアロンモード): クラスターで使われているファイルシステム(tHDFSConfiguration Apache Spark BatchtS3Configuration Apache Spark Batchなど)に対応する設定コンポーネントを使用します。

    ジョブ内に設定コンポーネントがない状態でDatabricksを使用している場合、ビジネスデータはDBFS (Databricks Filesystem)に直接書き込まれます。

この接続は、ジョブごとに有効になります。