Azure Data LakeStorageからサンプルデータを読み取る - Cloud - 8.0

Databricks

Version
Cloud
8.0
Language
日本語
Product
Talend Big Data
Talend Big Data Platform
Talend Data Fabric
Talend Real-Time Big Data Platform
Module
Talend Studio
Content
ジョブデザインと開発 > ジョブデザイン > Hadoopディストーション > Databricks
ジョブデザインと開発 > ジョブデザイン > Serverless > Databricks
Last publication date
2024-02-28

手順

  1. tFileInputParquetをダブルクリックして[Component] (コンポーネント)ビューを開きます。

  2. [Define a storage configuration component] (ストレージ設定コンポーネントを定義)チェックボックスをオンにして、前のステップで設定したtAzureFSConfigurationコンポーネントを選択します。
  3. [Edit schema] (スキーマを編集)の横にある[...]ボタンをクリックし、スキーマエディターを開きます。
  4. この画像に示すように、[+]ボタンをクリックしてスキーマ出力カラムを追加します。

  5. [OK]をクリックしてこれらの変更を確認し、ポップアップ表示されるダイアログボックスで求められるプロパゲーションを承認します。
  6. [Folder/File] (フォルダー/ファイル)フィールドに、データを読み取るフォルダーの名前を入力します。このシナリオではsample_userです。
  7. tLogRowをダブルクリックして[Component] (コンポーネント)ビューを開き、[Table] (テーブル)ラジオボタンを選択して結果をテーブルに表示します。
  8. F6 を押してこのジョブを実行します。

タスクの結果

完了すると、DatabricksクラスターのWeb UIの[Job] (ジョブ)ページでジョブを見つけ、ジョブの実行ログを確認できます。