최신 DP-203日本語 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203日本語版)

Azure Synapse Analytics アカウントを含む Azure サブスクリプションがあります。アカウントは、Repo1 という名前の Azure Repos リポジトリと統合されており、Pipeline1 という名前のパイプラインが含まれています。Repo1 には、次の表に示すブランチが含まれています。

featureddev から、Pipeline1 への変更を開発してテストします。変更を公開する必要があります。最初に何をすべきでしょうか?

정답: D
storage1 という名前の Azure Data Lake Storage Gen2 アカウントを含む Azure サブスクリプションがあります。Storage1 には、container1 という名前のコンテナーが含まれています。Container1 には、directory1 という名前のディレクトリーが含まれています。Directory1 には、file1 という名前のファイルが含まれています。
storage1 のストレージ BLOB データ閲覧者ロールが割り当てられている User1 という名前の Azure Active Directory (Azure AD) ユーザーがいます。
User1 が file1 にデータを追加できることを確認する必要があります。このソリューションでは、最小特権の原則を使用する必要があります。
どの権限を付与する必要がありますか? 答えるには、適切なアクセス許可を正しいリソースにドラッグします。各権限は、1 回または複数回使用することも、まったく使用しないこともできます。ペイン間の分割バーをドラッグするか、コンテンツを表示するためにスクロールする必要がある場合があります。
정답:

Explanation:
Box 1: Execute
If you are granting permissions by using only ACLs (no Azure RBAC), then to grant a security principal read or write access to a file, you'll need to give the security principal Execute permissions to the root folder of the container, and to each folder in the hierarchy of folders that lead to the file.
Box 2: Execute
On Directory: Execute (X): Required to traverse the child items of a directory Box 3: Write On file: Write (W): Can write or append to a file.
Reference:
https://docs.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-access-control
次の展示に示すアクティビティを持つAzureDataFactoryパイプラインがあります。

ドロップダウンメニューを使用して、図に示されている情報に基づいて各ステートメントを完了する回答の選択肢を選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。
정답:

Explanation:
Box 1: succeed
Box 2: failed
Example:
Now let's say we have a pipeline with 3 activities, where Activity1 has a success path to Activity2 and a failure path to Activity3. If Activity1 fails and Activity3 succeeds, the pipeline will fail. The presence of the success path alongside the failure path changes the outcome reported by the pipeline, even though the activity executions from the pipeline are the same as the previous scenario.

Activity1 fails, Activity2 is skipped, and Activity3 succeeds. The pipeline reports failure.
Reference:
https://datasavvy.me/2021/02/18/azure-data-factory-activity-failures-and-pipeline-outcomes/
Azure Data Lake Storage Gen2 を使用します。
データがディスクから読み取られるときに、ワークロードがフィルター述語と列プロジェクションを使用してデータをフィルターできることを確認する必要があります。
どの2つのアクションを実行する必要がありますか?それぞれの正解は、ソリューションの一部を示しています。
注: 正しい選択ごとに 1 ポイントの価値があります。

정답: A,B
Azure Synapse AnalyticsサーバーレスSQLプールを使用して、Azure Data Lake StorageGen2アカウントのバス料金データの探索的分析を実行しています。
次の展示に示すTransact-SQLクエリを実行します。

クエリ結果には何が含まれますか?

정답: C
workspace1 という名前の Azure Synapse Analytics ワークスペースを含む Azure サブスクリプションがあります。Workspace1 には、SQL プールという名前の専用 SQL プールと、sparkpool という名前の Apache Spark プールが含まれています。Sparkpool1 には、pyspark.df という名前の DataFrame が含まれています。
PySpark ノートブックを使用して、pyspark_df の内容を SQLPooM のタブに書き込む必要があります。
コードをどのように完成させる必要がありますか? 回答するには、回答エリアで適切なオプションを選択します。
注: それぞれの正しい選択は 1 ポイントの価値があります。
정답:

Explanation:
Server1 という名前の論理 Microsoft SQL サーバーを含む Azure サブスクリプションがあります。 Server1 は、Pool1 という名前の Azure Synapse Analytics SQL 専用プールをホストします。
Server1 には、透過的データ暗号化 (TDE) ソリューションを推奨する必要があります。ソリューションは、次の要件を満たす必要があります。
暗号化キーの使用状況を追跡します。
暗号化キーの可用性に影響する Azure データセンターの停止が発生した場合でも、クライアント アプリの Pool1 へのアクセスを維持します。
推奨事項には何を含めるべきですか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。
정답:

Explanation:

Box 1: TDE with customer-managed keys
Customer-managed keys are stored in the Azure Key Vault. You can monitor how and when your key vaults are accessed, and by whom. You can do this by enabling logging for Azure Key Vault, which saves information in an Azure storage account that you provide.
Box 2: Create and configure Azure key vaults in two Azure regions
The contents of your key vault are replicated within the region and to a secondary region at least 150 miles away, but within the same geography to maintain high durability of your keys and secrets.
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/security/workspaces-encryption
https://docs.microsoft.com/en-us/azure/key-vault/general/logging
Microsoft Purview アカウントを持っている。次の図は、CSV ファイルの系列ビューを示しています。

リネージュのデータはどのように取り込まれますか?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
container1 という名前のコンテナーを含む Azure Data Lake Storage Gen2 アカウントがあります。dbo.Table1 という名前のネイティブ外部テーブルを含む Azure Synapse Analytics サーバーレス SQL プールがあります。dbo.Table1 のソース データは、container1 に格納されます。次の図に、container1 のフォルダー構造を示します。

外部データ ソースは、次のステートメントを使用して定義されます。

次の各ステートメントについて、該当する場合は [はい] を選択します。それ以外の場合は、[いいえ] を選択します。
注: それぞれの正しい選択は 1 ポイントの価値があります。
정답:

Explanation:
Box 1: Yes
In the serverless SQL pool you can also use recursive wildcards /logs/** to reference Parquet or CSV files in any sub-folder beneath the referenced folder.
Box 2: Yes
Box 3: No
Reference: https://learn.microsoft.com/en-us/azure/synapse-analytics/sql/develop-tables-external-tables
Azure DataFactoryパイプラインにアクティビティがあります。このアクティビティは、Azure Synapse Analyticsのデータウェアハウスにあるストアドプロシージャを呼び出し、毎日実行されます。
アクティビティが最後に実行されたときのアクティビティの期間を確認する必要があります。
何を使うべきですか?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Azure SynapseAnalytics専用のSQLプールにデータウェアハウスを構築します。
アナリストは、在庫レポートで使用するためにデータを変換するために、複数のJOINおよびCASEステートメントを含む複雑なSELECTクエリを作成します。インベントリレポートは、レポートに応じてデータと追加のWHEREパラメータを使用します。レポートは1日1回作成されます。
データセットをレポートで使用できるようにするソリューションを実装する必要があります。ソリューションはクエリ時間を最小限に抑える必要があります。
何を実装する必要がありますか?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Azure Databricks を使用するストリーミング データ ソリューションを計画しています。このソリューションは、オンライン ストアからの販売取引データをストリーミングします。このソリューションの仕様は次のとおりです。
※出力データには、購入品目、数量、ライン合計売上金額、ライン合計税額が含まれます。
※ライン総売上額とライン総税額はDatabricksで集計されます。
* 販売取引は更新されません。代わりに、販売を調整するために新しい行が追加されます。
構造化ストリーミングを使用して処理されるデータセットの出力モードを推奨する必要があります。ソリューションでは、重複データを最小限に抑える必要があります。
何をお勧めしますか?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Azure Synapse Analytics 専用の SQL プールがあります。
クラスター化列ストア インデックスを含む Table1 という名前のファクト テーブルを作成する予定です。
Table1 のデータ圧縮とクエリのパフォーマンスを最適化する必要があります。
パーティションを作成する前に、Table1 に含める必要がある最小行数は何ですか?

정답: D
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、述べられた目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正しい解決策がある場合がありますが、他の質問セットには正しい解決策がない場合があります。
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
Twitterデータを分析するAzureStreamAnalyticsソリューションを設計しています。
10秒ごとにツイートを数える必要があります。ソリューションでは、各ツイートが1回だけカウントされるようにする必要があります。
解決策:10秒のホップサイズと10秒のウィンドウサイズを使用するホッピングウィンドウを使用します。
これは目標を達成していますか?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
次の図に示すように、Azure Synapse ワークスペースの Azure Data Lake Storage Gen2 にファイルとフォルダーがあります。

LOCATION='/topfolder/' を持つ ExtTable という名前の外部テーブルを作成します。
Azure Synapse Analytics サーバーレス SQL プールを使用して ExtTable にクエリを実行すると、どのファイルが返されますか?

정답: D
설명: (DumpTOP 회원만 볼 수 있음)
Azure SynapseAnalytics専用のSQLプールを設計しています。
次の表に示すように、グループはプール内の機密データにアクセスできます。

機密データのポリシーがあります
NS。次の表に示すように、ポリシーは地域によって異なります。

各地域の患者の表があります。テーブルには、次の潜在的に機密性の高い列が含まれています。

コンプライアンスを維持するために動的データマスキングを設計しています。
次の各ステートメントについて、ステートメントがtrueの場合は、[はい]を選択します。それ以外の場合は、[いいえ]を選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。
정답:

Explanation:

Reference:
https://docs.microsoft.com/en-us/azure/azure-sql/database/dynamic-data-masking-overview
Azure Synapse に SQL プールがあります。
ユーザーは、プールに対するクエリが完了するまでに予想よりも時間がかかると報告しています。
問題の診断に役立つように、基盤となるストレージに監視を追加する必要があります。
どの 2 つの指標を監視する必要がありますか?それぞれの正解は、ソリューションの一部を示しています。
注: 正しい選択ごとに 1 ポイントの価値があります。

정답: B,C
설명: (DumpTOP 회원만 볼 수 있음)

우리와 연락하기

문의할 점이 있으시면 메일을 보내오세요. 12시간이내에 답장드리도록 하고 있습니다.

근무시간: ( UTC+9 ) 9:00-24:00
월요일~토요일

서포트: 바로 연락하기