최신 DP-203日本語 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203日本語版)
英国南部リージョンの Azure Synapse Analytics に Azure ストレージ アカウントとデータ ウェアハウスがあります。
Azure Data Factory を使用して、ストレージ アカウントからデータ ウェアハウスに BLOB データをコピーする必要があります。ソリューションは、次の要件を満たす必要があります。
データが常に UK South リージョンにあることを確認してください。
管理作業を最小限に抑えます。
どのタイプの統合ランタイムを使用する必要がありますか?
Azure Data Factory を使用して、ストレージ アカウントからデータ ウェアハウスに BLOB データをコピーする必要があります。ソリューションは、次の要件を満たす必要があります。
データが常に UK South リージョンにあることを確認してください。
管理作業を最小限に抑えます。
どのタイプの統合ランタイムを使用する必要がありますか?
정답: C
설명: (DumpTOP 회원만 볼 수 있음)
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、述べられた目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正しい解決策がある場合がありますが、他の質問セットには正しい解決策がない場合があります。
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
100GBのファイルを含むAzureStorageアカウントがあります。ファイルには、テキストと数値の行が含まれています。行の75%には、平均長が1.1MBの説明データが含まれています。
ストレージアカウントからAzureSynapseAnalyticsのエンタープライズデータウェアハウスにデータをコピーすることを計画しています。
データがすばやくコピーされるように、ファイルを準備する必要があります。
解決策:列ストアインデックスを持つテーブルにファイルをコピーします。
これは目標を達成していますか?
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
100GBのファイルを含むAzureStorageアカウントがあります。ファイルには、テキストと数値の行が含まれています。行の75%には、平均長が1.1MBの説明データが含まれています。
ストレージアカウントからAzureSynapseAnalyticsのエンタープライズデータウェアハウスにデータをコピーすることを計画しています。
データがすばやくコピーされるように、ファイルを準備する必要があります。
解決策:列ストアインデックスを持つテーブルにファイルをコピーします。
これは目標を達成していますか?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
DB1 という名前の Azure SQL データベースと、pipeline という名前の Azure Data Factory データ パイプラインがあります。
Data Factory から、リンクされたサービスを DB1 に構成します。
DB1 で、SP1 という名前のストアド プロシージャを作成します。SP1 は、4 つの列を持つ 1 行のデータを返します。
SP1 を実行するには、パイプラインにアクティビティを追加する必要があります。ソリューションでは、列の値がパイプライン変数として格納されるようにする必要があります。
SP1 を実行するために使用できる 2 種類のアクティビティはどれですか? (Microsoft Azure ドキュメントのデータ エンジニアリングまたは Microsoft.com で入手可能な回答/説明のガイドを参照してください)
Data Factory から、リンクされたサービスを DB1 に構成します。
DB1 で、SP1 という名前のストアド プロシージャを作成します。SP1 は、4 つの列を持つ 1 行のデータを返します。
SP1 を実行するには、パイプラインにアクティビティを追加する必要があります。ソリューションでは、列の値がパイプライン変数として格納されるようにする必要があります。
SP1 を実行するために使用できる 2 種類のアクティビティはどれですか? (Microsoft Azure ドキュメントのデータ エンジニアリングまたは Microsoft.com で入手可能な回答/説明のガイドを参照してください)
정답: A,C
설명: (DumpTOP 회원만 볼 수 있음)
デバイスからのイベントデータを処理するためのAzureStreamAnalyticsソリューションを実装しています。
デバイスは、障害が発生するとイベントを出力し、障害が解決されるまで5秒ごとにイベントを繰り返し発行します。障害が存在しない場合、デバイスは前のイベントの後に5秒ごとにハートビートイベントを出力します。
次の表に、イベントのサンプルを示します。

障害間の稼働時間を計算する必要があります。
Stream Analytics SQLクエリをどのように完了する必要がありますか?答えるには、答えの中から適切なオプションを選択してください。
注:正しい選択はそれぞれ1ポイントの価値があります。

デバイスは、障害が発生するとイベントを出力し、障害が解決されるまで5秒ごとにイベントを繰り返し発行します。障害が存在しない場合、デバイスは前のイベントの後に5秒ごとにハートビートイベントを出力します。
次の表に、イベントのサンプルを示します。

障害間の稼働時間を計算する必要があります。
Stream Analytics SQLクエリをどのように完了する必要がありますか?答えるには、答えの中から適切なオプションを選択してください。
注:正しい選択はそれぞれ1ポイントの価値があります。

정답:

Explanation:

Box 1: WHERE EventType='HeartBeat'
Box 2: ,TumblingWindow(Second, 5)
Tumbling windows are a series of fixed-sized, non-overlapping and contiguous time intervals.
The following diagram illustrates a stream with a series of events and how they are mapped into 10-second tumbling windows.

Reference:
https://docs.microsoft.com/en-us/stream-analytics-query/session-window-azure-stream-analytics
https://docs.microsoft.com/en-us/stream-analytics-query/tumbling-window-azure-stream-analytics
SQL サーバーから Azure Data Lake Storage に日次インベントリ データをインポートするために、一緒に使用することを推奨する Azure Data Factory コンポーネントはどれですか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。

注: 正しい選択ごとに 1 ポイントの価値があります。

정답:

Explanation:

Box 1: Self-hosted integration runtime
A self-hosted IR is capable of running copy activity between a cloud data stores and a data store in private network.
Box 2: Schedule trigger
Schedule every 8 hours
Box 3: Copy activity
Scenario:
Customer data, including name, contact information, and loyalty number, comes from Salesforce and can be imported into Azure once every eight hours. Row modified dates are not trusted in the source table.
Product data, including product ID, name, and category, comes from Salesforce and can be imported into Azure once every eight hours. Row modified dates are not trusted in the source table.
Azure Data Factory にセルフホスト型統合ランタイムがあります。
統合ランタイムの現在のステータスには、次の構成があります。
ステータス: 実行中
タイプ: セルフホスト
バージョン: 4.4.7292.1
実行中 / 登録済みノード: 1/1
高可用性が有効: False
リンク数: 0
キューの長さ: 0
平均キュー時間。0.00秒
統合ランタイムには次のノード詳細があります。
名前: XM
ステータス: 実行中
バージョン: 4.4.7292.1
使用可能なメモリ: 7697MB
CPU使用率: 6%
ネットワーク(入力/出力):1.21KBps/0.83KBps
同時ジョブ数(実行中/制限): 2/14
役割: ディスパッチャー/作業員
資格情報ステータス: 同期中
ドロップダウン メニューを使用して、提示された情報に基づいて各ステートメントを完成させる回答の選択肢を選択します。
注意: 正しい選択ごとに 1 ポイントが付与されます。

統合ランタイムの現在のステータスには、次の構成があります。
ステータス: 実行中
タイプ: セルフホスト
バージョン: 4.4.7292.1
実行中 / 登録済みノード: 1/1
高可用性が有効: False
リンク数: 0
キューの長さ: 0
平均キュー時間。0.00秒
統合ランタイムには次のノード詳細があります。
名前: XM
ステータス: 実行中
バージョン: 4.4.7292.1
使用可能なメモリ: 7697MB
CPU使用率: 6%
ネットワーク(入力/出力):1.21KBps/0.83KBps
同時ジョブ数(実行中/制限): 2/14
役割: ディスパッチャー/作業員
資格情報ステータス: 同期中
ドロップダウン メニューを使用して、提示された情報に基づいて各ステートメントを完成させる回答の選択肢を選択します。
注意: 正しい選択ごとに 1 ポイントが付与されます。

정답:

Explanation:

Box 1: fail until the node comes back online
We see: High Availability Enabled: False
Note: Higher availability of the self-hosted integration runtime so that it's no longer the single point of failure in your big data solution or cloud data integration with Data Factory.
Box 2: lowered
We see:
Concurrent Jobs (Running/Limit): 2/14
CPU Utilization: 6%
Note: When the processor and available RAM aren't well utilized, but the execution of concurrent jobs reaches a node's limits, scale up by increasing the number of concurrent jobs that a node can run Reference:
https://docs.microsoft.com/en-us/azure/data-factory/create-self-hosted-integration-runtime
Azure DevOps に Repo1 という名前のリポジトリを含むプロジェクトがあります。Repo1 には main という名前のブランチが含まれています。
Workspace1 という名前の新しい Azure Synapse ワークスペースを作成します。
Workspace1 にデータ処理パイプラインを作成する必要があります。ソリューションは次の要件を満たす必要があります。
* パイプライン アーティファクトは Repo1 に保存する必要があります。
* パイプライン アーティファクトにはソース管理を提供する必要があります。
* すべての開発は機能ブランチで実行する必要があります。
Synapse Studio で順番に実行する必要がある 4 つのアクションはどれですか? 回答するには、アクションのリストから適切なアクションを回答領域に移動し、正しい順序で並べます。

Workspace1 という名前の新しい Azure Synapse ワークスペースを作成します。
Workspace1 にデータ処理パイプラインを作成する必要があります。ソリューションは次の要件を満たす必要があります。
* パイプライン アーティファクトは Repo1 に保存する必要があります。
* パイプライン アーティファクトにはソース管理を提供する必要があります。
* すべての開発は機能ブランチで実行する必要があります。
Synapse Studio で順番に実行する必要がある 4 つのアクションはどれですか? 回答するには、アクションのリストから適切なアクションを回答領域に移動し、正しい順序で並べます。

정답:

Explanation:

Twitterフィード用のデータ取り込みおよびストレージソリューションを設計する必要があります。ソリューションは、顧客の感情分析の要件を満たす必要があります。
ソリューションに何を含める必要がありますか回答するには、回答領域で適切なオプションを選択します。注各正しい選択は、1ポイントの価値があります。

ソリューションに何を含める必要がありますか回答するには、回答領域で適切なオプションを選択します。注各正しい選択は、1ポイントの価値があります。

정답:

Explanation:

Box 1: Configure Evegent Hubs partitions
Scenario: Maximize the throughput of ingesting Twitter feeds from Event Hubs to Azure Storage without purchasing additional throughput or capacity units.
Event Hubs is designed to help with processing of large volumes of events. Event Hubs throughput is scaled by using partitions and throughput-unit allocations.
Event Hubs traffic is controlled by TUs (standard tier). Auto-inflate enables you to start small with the minimum required TUs you choose. The feature then scales automatically to the maximum limit of TUs you need, depending on the increase in your traffic.
Box 2: An Azure Data Lake Storage Gen2 account
Scenario: Ensure that the data store supports Azure AD-based access control down to the object level.
Azure Data Lake Storage Gen2 implements an access control model that supports both Azure role-based access control (Azure RBAC) and POSIX-like access control lists (ACLs).
Reference:
https://docs.microsoft.com/en-us/azure/event-hubs/event-hubs-features
https://docs.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-access-control
AzureDatabricksで構造化ストリーミングソリューションを構築することを計画しています。このソリューションは、5分間隔で新しいイベントをカウントし、その間隔中に到着したイベントのみを報告します。出力はDeltaLakeテーブルに送信されます。
どの出力モードを使用する必要がありますか?
どの出力モードを使用する必要がありますか?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
顧客用のJSONファイルを含むAzureData Lake StorageGen2アカウントがあります。このファイルには、FirstNameとLastNameという名前の2つの属性が含まれています。
Azure Databricksを使用して、JSONファイルからAzure SynapseAnalyticsテーブルにデータをコピーする必要があります。
FirstNameとLastNameの値を連結する新しい列を作成する必要があります。
次のコンポーネントを作成します。
* AzureSynapseの宛先テーブル
* AzureBlobストレージコンテナー
*サービスプリンシパル
アクションを実行する順序はどれですか。回答するには、適切なアクションをアクションのリストから回答領域に移動し、正しい順序に並べます。

Azure Databricksを使用して、JSONファイルからAzure SynapseAnalyticsテーブルにデータをコピーする必要があります。
FirstNameとLastNameの値を連結する新しい列を作成する必要があります。
次のコンポーネントを作成します。
* AzureSynapseの宛先テーブル
* AzureBlobストレージコンテナー
*サービスプリンシパル
アクションを実行する順序はどれですか。回答するには、適切なアクションをアクションのリストから回答領域に移動し、正しい順序に並べます。

정답:

Explanation:

Step 1: Mount the Data Lake Storage onto DBFS
Begin with creating a file system in the Azure Data Lake Storage Gen2 account.
Step 2: Read the file into a data frame.
You can load the json files as a data frame in Azure Databricks.
Step 3: Perform transformations on the data frame.
Step 4: Specify a temporary folder to stage the data
Specify a temporary folder to use while moving data between Azure Databricks and Azure Synapse.
Step 5: Write the results to a table in Azure Synapse.
You upload the transformed data frame into Azure Synapse. You use the Azure Synapse connector for Azure Databricks to directly upload a dataframe as a table in a Azure Synapse.
Reference:
https://docs.microsoft.com/en-us/azure/azure-databricks/databricks-extract-load-sql-data-warehouse
Azure Synapse Analytics 専用の SQL プールでデータ ウェアハウスのディメンションを作成しています。
次の図に示す Transact-SQL ステートメントを使用してテーブルを作成します。

ドロップダウン メニューを使用して、グラフィックに表示されている情報に基づいて各ステートメントを完了する回答の選択肢を選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。

次の図に示す Transact-SQL ステートメントを使用してテーブルを作成します。

ドロップダウン メニューを使用して、グラフィックに表示されている情報に基づいて各ステートメントを完了する回答の選択肢を選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。

정답:

Explanation:

Box 1: Type 2
A Type 2 SCD supports versioning of dimension members. Often the source system doesn't store versions, so the data warehouse load process detects and manages changes in a dimension table. In this case, the dimension table must use a surrogate key to provide a unique reference to a version of the dimension member.
It also includes columns that define the date range validity of the version (for example, StartDate and EndDate) and possibly a flag column (for example, IsCurrent) to easily filter by current dimension members.
Reference:
https://docs.microsoft.com/en-us/learn/modules/populate-slowly-changing-dimensions-azure-synapse- analytics-pipelines/3-choose-between-dimension-types
次の表に示す Azure Synapse Analytics ワークスペースを含む Azure サブスクリプションがあります。

各ワークスペースは、datalake1 に対してデータの読み取りと書き込みを行う必要があります。
各ワークスペースには未使用の Apache Spark プールが含まれています。
各 Spark プールを構成して、データレイクを参照するカタログ オブジェクトを共有することを計画しています。次の各ステートメントについて、該当する場合は「はい」を選択します。それ以外の場合は「いいえ」を選択します。注: 正しい選択ごとに 1 ポイントが付与されます。


各ワークスペースは、datalake1 に対してデータの読み取りと書き込みを行う必要があります。
各ワークスペースには未使用の Apache Spark プールが含まれています。
各 Spark プールを構成して、データレイクを参照するカタログ オブジェクトを共有することを計画しています。次の各ステートメントについて、該当する場合は「はい」を選択します。それ以外の場合は「いいえ」を選択します。注: 正しい選択ごとに 1 ポイントが付与されます。

정답:

Explanation:
