최신 DP-203日本語 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203日本語版)
Azure Event Hubからのストリーミングデータを処理し、そのデータをAzure Data LakeStorageに出力するソリューションを設計する必要があります。このソリューションでは、アナリストがストリーミングデータをインタラクティブにクエリできるようにする必要があります。
何を使うべきですか?
何を使うべきですか?
정답: C
설명: (DumpTOP 회원만 볼 수 있음)
ADM という名前の Azure データ ファクトリがあり、これには Pipelwe1 Pipeline という名前のパイプラインが含まれています。15 分のオフセットで 30 分ごとに実行する必要があります。
Pipehne1 のトリガーを作成する必要があります。トリガーは次の要件を満たしている必要があります。
* 一日の初めから現在時刻までのデータをバックフィルします。
* Pipeline1 が正常である場合、パイプラインが同じ 30 ミュート期間内に再実行できることを確認します。
* 同時に実行できるパイプラインは 1 つだけであることを確認してください。
* 開発と構成の労力を最小限に抑える
どのタイプのトリガーを作成する必要がありますか?
Pipehne1 のトリガーを作成する必要があります。トリガーは次の要件を満たしている必要があります。
* 一日の初めから現在時刻までのデータをバックフィルします。
* Pipeline1 が正常である場合、パイプラインが同じ 30 ミュート期間内に再実行できることを確認します。
* 同時に実行できるパイプラインは 1 つだけであることを確認してください。
* 開発と構成の労力を最小限に抑える
どのタイプのトリガーを作成する必要がありますか?
정답: B
注: この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、記載された目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正解がある場合もあれば、正解がない場合もあります。
このセクションの質問に答えた後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
あなたは、Twitter データを分析する Azure Stream Analytics ソリューションを設計しています。
10 秒ごとにツイートをカウントする必要があります。ソリューションでは、各ツイートが 1 回だけカウントされるようにする必要があります。
解決策: 10 秒のタイムアウト サイズを使用するセッション ウィンドウを使用します。
これは目標を達成していますか?
このセクションの質問に答えた後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
あなたは、Twitter データを分析する Azure Stream Analytics ソリューションを設計しています。
10 秒ごとにツイートをカウントする必要があります。ソリューションでは、各ツイートが 1 回だけカウントされるようにする必要があります。
解決策: 10 秒のタイムアウト サイズを使用するセッション ウィンドウを使用します。
これは目標を達成していますか?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
ハイブリッドAzureActive Directory(Azure AD)テナントにリンクされているAzureサブスクリプションがあります。サブスクリプションには、Pool1という名前のAzure Synapse AnalyticsSQLプールが含まれています。
Pool1の認証ソリューションを推奨する必要があります。ソリューションは、多要素認証(MFA)とデータベースレベルの認証をサポートする必要があります。
どの認証ソリューションを推奨に含める必要がありますか?回答するには、回答領域で適切なオプションを選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。

Pool1の認証ソリューションを推奨する必要があります。ソリューションは、多要素認証(MFA)とデータベースレベルの認証をサポートする必要があります。
どの認証ソリューションを推奨に含める必要がありますか?回答するには、回答領域で適切なオプションを選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。

정답:

Explanation:

Box 1: Azure AD authentication
Azure Active Directory authentication supports Multi-Factor authentication through Active Directory Universal Authentication.
Box 2: Contained database users
Azure Active Directory Uses contained database users to authenticate identities at the database level.
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse- authentication
Azure Data Factory パイプラインを構築して、Azure Data Lake Storage Gen2 コンテナーから Azure Synapse Analytics 専用 SQL プール内のデータベースにデータを移動します。
コンテナ内のデータは、以下のフォルダ構造で保存されます。
/in/{YYYY}/{MM}/{DD}/{HH}/{mm}
最も古いフォルダーは /in/2021/01/01/00/00 です。最新のフォルダは /in/2021/01/15/01/45 です。
次の要件を満たすようにパイプライン トリガーを構成する必要があります。
既存のデータをロードする必要があります。
データは 30 分ごとにロードする必要があります。
最大 2 分の遅延到着データは、データが到着するはずの時間の負荷に含める必要があります。
パイプライン トリガーをどのように構成する必要がありますか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。

コンテナ内のデータは、以下のフォルダ構造で保存されます。
/in/{YYYY}/{MM}/{DD}/{HH}/{mm}
最も古いフォルダーは /in/2021/01/01/00/00 です。最新のフォルダは /in/2021/01/15/01/45 です。
次の要件を満たすようにパイプライン トリガーを構成する必要があります。
既存のデータをロードする必要があります。
データは 30 分ごとにロードする必要があります。
最大 2 分の遅延到着データは、データが到着するはずの時間の負荷に含める必要があります。
パイプライン トリガーをどのように構成する必要がありますか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。

정답:

Explanation:

Box 1: Tumbling window
To be able to use the Delay parameter we select Tumbling window.
Box 2:
Recurrence: 30 minutes, not 32 minutes
Delay: 2 minutes.
The amount of time to delay the start of data processing for the window. The pipeline run is started after the expected execution time plus the amount of delay. The delay defines how long the trigger waits past the due time before triggering a new run. The delay doesn't alter the window startTime.
Reference:
https://docs.microsoft.com/en-us/azure/data-factory/how-to-create-tumbling-window-trigger
10個のパイプラインを含むAzureDataFactoryがあります。
各パイプラインに、取り込み、変換、またはロードのいずれかの主な目的でラベルを付ける必要があります。 Data Factoryの監視エクスペリエンスを使用する場合、ラベルはグループ化とフィルタリングに使用できる必要があります。
各パイプラインに何を追加する必要がありますか?
各パイプラインに、取り込み、変換、またはロードのいずれかの主な目的でラベルを付ける必要があります。 Data Factoryの監視エクスペリエンスを使用する場合、ラベルはグループ化とフィルタリングに使用できる必要があります。
各パイプラインに何を追加する必要がありますか?
정답: D
설명: (DumpTOP 회원만 볼 수 있음)
Azure Data Lake Storage Gen2 コンテナーがあります。
データはコンテナーに取り込まれ、データ統合アプリケーションによって変換されます。その後、データは変更されません。ユーザーはコンテナー内のファイルを読み取ることができますが、ファイルを変更することはできません。
次の要件を満たすデータ アーカイブ ソリューションを設計する必要があります。
新しいデータは頻繁にアクセスされ、できるだけ早く利用できるようにする必要があります。
5 年以上前のデータにアクセスする頻度は低くなりますが、要求されたときに 1 秒以内に利用できるようにする必要があります。
7 年以上前のデータにはアクセスしません。 7 年後、データは可能な限り低いコストで永続化する必要があります。
必要な可用性を維持しながら、コストを最小限に抑える必要があります。
データをどのように管理する必要がありますか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。

データはコンテナーに取り込まれ、データ統合アプリケーションによって変換されます。その後、データは変更されません。ユーザーはコンテナー内のファイルを読み取ることができますが、ファイルを変更することはできません。
次の要件を満たすデータ アーカイブ ソリューションを設計する必要があります。
新しいデータは頻繁にアクセスされ、できるだけ早く利用できるようにする必要があります。
5 年以上前のデータにアクセスする頻度は低くなりますが、要求されたときに 1 秒以内に利用できるようにする必要があります。
7 年以上前のデータにはアクセスしません。 7 年後、データは可能な限り低いコストで永続化する必要があります。
必要な可用性を維持しながら、コストを最小限に抑える必要があります。
データをどのように管理する必要がありますか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。

정답:

Explanation:

Box 1: Move to cool storage
Box 2: Move to archive storage
Archive - Optimized for storing data that is rarely accessed and stored for at least 180 days with flexible latency requirements, on the order of hours.
The following table shows a comparison of premium performance block blob storage, and the hot, cool, and archive access tiers.

Reference:
https://docs.microsoft.com/en-us/azure/storage/blobs/storage-blob-storage-tiers Explanation:
Box 1: Replicated
Replicated tables are ideal for small star-schema dimension tables, because the fact table is often distributed on a column that is not compatible with the connected dimension tables. If this case applies to your schema, consider changing small dimension tables currently implemented as round-robin to replicated.
Box 2: Replicated
Box 3: Replicated
Box 4: Hash-distributed
For Fact tables use hash-distribution with clustered columnstore index. Performance improves when two hash tables are joined on the same distribution column.
Reference:
https://azure.microsoft.com/en-us/updates/reduce-data-movement-and-make-your-queries-more-efficient-with- the-general-availability-of-replicated-tables/
https://azure.microsoft.com/en-us/blog/replicated-tables-now-generally-available-in-azure-sql-data-warehouse/
Pool1 という名前の Azure Synapse Analytics 専用 SQL プールを含む Azure サブスクリプションがあります。Pool1 は 24 時間ごとに新しいデータを受け取ります。
次の機能があります。

次のクエリがあります。

クエリは 15 分ごとに 1 回実行され、@parameter 値は現在の日付に設定されます。
クエリが結果を返すまでの時間を最小限に抑える必要があります。
どの 2 つのアクションを実行する必要がありますか? 各正解は、ソリューションの一部を示しています。
注: それぞれの正しい選択は 1 ポイントの価値があります。
次の機能があります。

次のクエリがあります。

クエリは 15 分ごとに 1 回実行され、@parameter 値は現在の日付に設定されます。
クエリが結果を返すまでの時間を最小限に抑える必要があります。
どの 2 つのアクションを実行する必要がありますか? 各正解は、ソリューションの一部を示しています。
注: それぞれの正しい選択は 1 ポイントの価値があります。
정답: A,C
설명: (DumpTOP 회원만 볼 수 있음)
ステージングゾーンを含むAzureData LakeStorageアカウントがあります。
ステージングゾーンから増分データを取り込み、Rスクリプトを実行してデータを変換し、変換されたデータをAzure SynapseAnalyticsのデータウェアハウスに挿入する毎日のプロセスを設計する必要があります。
解決策:Azure Data Factoryスケジュールトリガーを使用して、マッピングデータフローを実行するパイプラインを実行してから、データウェアハウスにデータ情報を挿入します。
これは目標を達成していますか?
ステージングゾーンから増分データを取り込み、Rスクリプトを実行してデータを変換し、変換されたデータをAzure SynapseAnalyticsのデータウェアハウスに挿入する毎日のプロセスを設計する必要があります。
解決策:Azure Data Factoryスケジュールトリガーを使用して、マッピングデータフローを実行するパイプラインを実行してから、データウェアハウスにデータ情報を挿入します。
これは目標を達成していますか?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
account1 と account2 という名前の 2 つの Azure Blob Storage アカウントがありますか?
スケジュールされた間隔を使用して、新しく作成または変更された BLOB を account1 から account にレプリケートする Azure Data Factory パイプラインを作成する予定ですか?
パイプラインを実装するためのソリューションを推奨する必要があります。ソリューションは次の要件を満たす必要があります。
* パイプラインが、最新のレプリケーション イベント以降に作成または変更された BLOB のみをコピーすることを確認します。
* パイプラインを作成する労力を最小限に抑えます。
何を勧めるべきですか?
スケジュールされた間隔を使用して、新しく作成または変更された BLOB を account1 から account にレプリケートする Azure Data Factory パイプラインを作成する予定ですか?
パイプラインを実装するためのソリューションを推奨する必要があります。ソリューションは次の要件を満たす必要があります。
* パイプラインが、最新のレプリケーション イベント以降に作成または変更された BLOB のみをコピーすることを確認します。
* パイプラインを作成する労力を最小限に抑えます。
何を勧めるべきですか?
정답: C
PL1 という名前のパイプラインを含む DF1 という名前の Azure Factory インスタンスがあります。PL1 にはタンブリング ウィンドウ トリガーが含まれています。
PL1 の 5 つのクローンを作成します。異なるデータ ソースを使用するように各クローン パイプラインを構成します。
クローン パイプラインの実行スケジュールが PL1 の実行スケジュールと一致していることを確認する必要があります。
あなたは何をするべきか?
PL1 の 5 つのクローンを作成します。異なるデータ ソースを使用するように各クローン パイプラインを構成します。
クローン パイプラインの実行スケジュールが PL1 の実行スケジュールと一致していることを確認する必要があります。
あなたは何をするべきか?
정답: C
Azure サブスクリプションがあります。
ステージング テーブルとディメンション モデルを含む、pool1 という名前の Azure Synapse Analytics 専用 SQL プールにデータ ウェアハウスを構築する予定です。Pool1 には次のテーブルが含まれます。

pool1 のテーブル ストレージを設計する必要があります。ソリューションは、次の要件を満たす必要があります。
Staging.WebSessions へのデータ読み込み操作のパフォーマンスを最大化します。
ディメンション モデルに対するレポート クエリのクエリ時間を最小限に抑えます。
各テーブルにどのタイプのテーブル分散を使用する必要がありますか? 答えるには、適切なテーブル ディストリビューション タイプを正しいテーブルにドラッグします。各テーブル分散タイプは、1 回または複数回使用することも、まったく使用しないこともできます。ペイン間の分割バーをドラッグするか、コンテンツを表示するためにスクロールする必要がある場合があります。
注: それぞれの正しい選択は 1 ポイントの価値があります。

ステージング テーブルとディメンション モデルを含む、pool1 という名前の Azure Synapse Analytics 専用 SQL プールにデータ ウェアハウスを構築する予定です。Pool1 には次のテーブルが含まれます。

pool1 のテーブル ストレージを設計する必要があります。ソリューションは、次の要件を満たす必要があります。
Staging.WebSessions へのデータ読み込み操作のパフォーマンスを最大化します。
ディメンション モデルに対するレポート クエリのクエリ時間を最小限に抑えます。
各テーブルにどのタイプのテーブル分散を使用する必要がありますか? 答えるには、適切なテーブル ディストリビューション タイプを正しいテーブルにドラッグします。各テーブル分散タイプは、1 回または複数回使用することも、まったく使用しないこともできます。ペイン間の分割バーをドラッグするか、コンテンツを表示するためにスクロールする必要がある場合があります。
注: それぞれの正しい選択は 1 ポイントの価値があります。

정답:

Explanation:
Box 1: Replicated
The best table storage option for a small table is to replicate it across all the Compute nodes.
Box 2: Hash
Hash-distribution improves query performance on large fact tables.
Box 3: Round-robin
Round-robin distribution is useful for improving loading speed.
Reference: https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse- tables-distribute
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、述べられた目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正しい解決策がある場合がありますが、他の質問セットには正しい解決策がない場合があります。
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
Table1という名前のテーブルを含むAzureSynapseAnalytics専用のSQLプールがあります。
container1という名前のAzureData Lake StorageGen2コンテナーに取り込まれてロードされるファイルがあります。
container1のファイルからTable1にデータを挿入し、データを変換することを計画しています。ファイル内のデータの各行は、Table1のサービングレイヤーに1つの行を生成します。
ソースデータファイルがcontainer1にロードされるときに、DateTimeが追加の列としてTable1に格納されていることを確認する必要があります。
解決策:専用のSQLプールを使用して、追加のDateTime列を持つ外部テーブルを作成します。
これは目標を達成していますか?
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
Table1という名前のテーブルを含むAzureSynapseAnalytics専用のSQLプールがあります。
container1という名前のAzureData Lake StorageGen2コンテナーに取り込まれてロードされるファイルがあります。
container1のファイルからTable1にデータを挿入し、データを変換することを計画しています。ファイル内のデータの各行は、Table1のサービングレイヤーに1つの行を生成します。
ソースデータファイルがcontainer1にロードされるときに、DateTimeが追加の列としてTable1に格納されていることを確認する必要があります。
解決策:専用のSQLプールを使用して、追加のDateTime列を持つ外部テーブルを作成します。
これは目標を達成していますか?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Microsoft Azure SQL データ ウェアハウスの実装の監視を構成します。実装では、PolyBase を使用して、外部テーブルを使用して Azure Data Lake Gen 2 に格納されているコンマ区切り値 (CSV) ファイルからデータを読み込みます。
スキーマが無効なファイルはエラーの原因となります。
無効なスキーマ エラーを監視する必要があります。
どのエラーを監視する必要がありますか?
スキーマが無効なファイルはエラーの原因となります。
無効なスキーマ エラーを監視する必要があります。
どのエラーを監視する必要がありますか?
정답: D
설명: (DumpTOP 회원만 볼 수 있음)