Sparkを使ってAzure Data Lake Storageからデータの書き込みと読み取りを行う(Azure Databricks)
このシナリオでは、tAzureFSConfigurationを使ってSpark Batchジョブを作成し、Parquetコマンドを使ってデータをAzure Data Lake Storageに書き込み、Azureからデータを読み取ります。
このシナリオは、ビッグデータ関連Talend製品にのみ適用されます。
Talendでサポートされているテクノロジーの詳細は、Talendコンポーネントをご覧ください。
読み取られたサンプルデータは次のとおりです。
01;ychen
このデータには、ユーザー名とこのユーザーに配布されたID番号が含まれています。
サンプルデータはあくまでも例示用です。
このページは役に立ちましたか?
このページまたはコンテンツに、タイポ、ステップの省略、技術的エラーなどの問題が見つかった場合は、お知らせください。改善に役立たせていただきます。