ジョブを設定 - Cloud - 8.0

Azure Data Lake Store

Version
Cloud
8.0
Language
日本語
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Data Integration
Talend Data Management Platform
Talend Data Services Platform
Talend ESB
Talend MDM Platform
Talend Open Studio for Big Data
Talend Open Studio for Data Integration
Talend Open Studio for ESB
Talend Real-Time Big Data Platform
Module
Talend Studio
Content
ジョブデザインと開発 > サードパーティーシステム > クラウドストレージ > Azure > Azure Data Lake Storeコンポーネント
データガバナンス > サードパーティーシステム > クラウドストレージ > Azure > Azure Data Lake Storeコンポーネント
データクオリティとプレパレーション > サードパーティーシステム > クラウドストレージ > Azure > Azure Data Lake Storeコンポーネント

このタスクについて

  • この手順はADLS Databricks Gen2特有のものです。
  • このジョブは、ビッグデータバッチノードまたはビッグデータストリーミングノードで作成できます。

手順

  1. tJavaコンポーネントとtAzureFSConfigurationコンポーネントを[Palette] (パレット)からデザインワークスペースにドロップします。
  2. Databricksアカウントに移動します。
  3. Databricksクラスターページの[Configuration] (設定)タブで、[Advanced options] (詳細オプション)を展開します。
  4. Sparkタブで、次のSparkプロパティを追加します:
    spark.hadoop.fs.azure.account.key.<storage_account>.dfs.core.windows.net <key>

    このキーは、使用するストレージアカウントに関連付けられています。このストレージアカウントの[Access keys] (アクセスキー)ブレードにあります。どのアカウントにも使えるキーが2つあり、このアクセスにはデフォルトでどちらのキーも使用できます。

    使用するアカウントに適切な読み取り/書き込み権限とアクセス許可があることをご確認ください。