최신 DP-203日本語 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203日本語版)

Azure Synapse Analytics 専用の SQL プールがあります。
データ ウェアハウスのコピーを作成し、そのコピーを 28 日間利用できるようにする必要があります。ソリューションではコストを最小限に抑える必要があります。
どの 3 つのアクションを順番に実行する必要がありますか? 回答するには、アクション リストから適切なアクションを回答領域に移動し、正しい順序で並べます。
정답:

Explanation:
ADF1 という名前の Azure データ ファクトリがあります。
現在、パイプライン オーサリングの変更はすべて ADF1 に直接公開しています。
パイプライン アーティファクトに加えられた変更に対してバージョン管理を実装する必要があります。ソリューションでは、ADF1 の UX オーサリング キャンバスで現在定義されているリソースにバージョン管理を適用できるようにする必要があります。
どの 2 つのアクションを実行する必要がありますか? それぞれの正しい答えは、解決策の一部を示します。 注: 正しい選択肢はそれぞれ 1 ポイントの価値があります。

정답: B,C
설명: (DumpTOP 회원만 볼 수 있음)
ステージングゾーンを含むAzureData LakeStorageアカウントがあります。
ステージングゾーンから増分データを取り込み、Rスクリプトを実行してデータを変換し、変換されたデータをAzure SynapseAnalyticsのデータウェアハウスに挿入する毎日のプロセスを設計する必要があります。
解決策:Azure Data Factoryスケジュールトリガーを使用して、マッピングデータフローを実行するパイプラインを実行してから、データウェアハウスにデータ情報を挿入します。
これは目標を達成していますか?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
PL1 という名前のパイプラインを含む DF1 という名前の Azure Factory インスタンスがあります。PL1 にはタンブリング ウィンドウ トリガーが含まれています。
PL1 の 5 つのクローンを作成します。異なるデータ ソースを使用するように各クローン パイプラインを構成します。
クローン パイプラインの実行スケジュールが PL1 の実行スケジュールと一致していることを確認する必要があります。
あなたは何をするべきか?

정답: C
Azure データ ファクトリを含む Azure サブスクリプションがあります。
Azure Data Factory アクティビティ JSON を編集しています。
スクリプトでは、Azure Blob Storage から複数の宛先にファイルをコピーする必要があります。ソリューションでは、ソース ファイルと宛先ファイルのフォルダー パスが一貫していることを確認する必要があります。
スクリプトをどのように完成させる必要がありますか? 回答するには、適切な値を正しいターゲットにドラッグします。各値は、1 回、複数回、またはまったく使用されない場合があります。コンテンツを表示するには、ペイン間の分割バーをドラッグするか、スクロールする必要がある場合があります。
注意: 正解を選ぶごとに1ポイント獲得できます
정답:

Explanation:
Azure Data LakeStorageアカウントを含むAzureサブスクリプションがあります。ストレージアカウントには、DataLake1という名前のデータレイクが含まれています。
Azureデータファクトリを使用して、DataLake1のフォルダーからデータを取り込み、データを変換して、データを別のフォルダーに配置することを計画しています。
データファクトリがDataLake1ファイルシステムの任意のフォルダからデータを読み書きできることを確認する必要があります。ソリューションは、次の要件を満たす必要があります。
不正なユーザーアクセスのリスクを最小限に抑えます。
最小特権の原則を使用します。
メンテナンスの労力を最小限に抑えます。
データファクトリのストレージアカウントへのアクセスをどのように構成する必要がありますか?回答するには、回答領域で適切なオプションを選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。
정답:

Explanation:

Box 1: Azure Active Directory (Azure AD)
On Azure, managed identities eliminate the need for developers having to manage credentials by providing an identity for the Azure resource in Azure AD and using it to obtain Azure Active Directory (Azure AD) tokens.
Box 2: a managed identity
A data factory can be associated with a managed identity for Azure resources, which represents this specific data factory. You can directly use this managed identity for Data Lake Storage Gen2 authentication, similar to using your own service principal. It allows this designated factory to access and copy data to or from your Data Lake Storage Gen2.
Note: The Azure Data Lake Storage Gen2 connector supports the following authentication types.
Account key authentication
Service principal authentication
Managed identities for Azure resources authentication
Reference:
https://docs.microsoft.com/en-us/azure/active-directory/managed-identities-azure-resources/overview
https://docs.microsoft.com/en-us/azure/data-factory/connector-azure-data-lake-storage
AzureSynapseAnalyticsで1GB未満のディメンションテーブルを作成することを計画しています。
次の要件を満たすためにテーブルを作成する必要があります。
*最速のクエリ時間を提供します。
*クエリ中のデータ移動を最小限に抑えます。
どのタイプのテーブルを使用する必要がありますか?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Table1 という名前のテーブルを含む Azure Synapse Analytics 専用 SQL プールがあります。表 1 には以下が含まれます。
10億行
クラスター化された列ストア インデックス
Product Key という名前のハッシュ分散列
日付データ型で null にできない Sales Date という名前の列 毎月 3,000 万行が Table1 に追加されます。
Sales Date 列に基づいて Table1 を分割する必要があります。ソリューションは、クエリのパフォーマンスとデータの読み込みを最適化する必要があります。
どのくらいの頻度でパーティションを作成する必要がありますか?

정답: D
설명: (DumpTOP 회원만 볼 수 있음)
16 個のパーティションを持つ、retailhub という名前の Azure イベント ハブがあります。トランザクションは Retailhub に転記されます。各トランザクションには、トランザクション ID、個々の項目、および支払いの詳細が含まれます。トランザクション ID は、パーティション キーとして使用されます。
あなたは、小売店での不正の可能性があるトランザクションを特定するための Azure Stream Analytics ジョブを設計しています。ジョブは、retailhub を入力として使用します。このジョブは、トランザクション ID、個々の項目、支払いの詳細、不正スコア、および不正インジケータを出力します。
出力を、fairhub という名前の Azure イベント ハブに送信する予定です。
不正検出ソリューションが高度にスケーラブルであり、トランザクションを可能な限り迅速に処理することを確認する必要があります。
Stream Analytics ジョブの出力をどのように構造化する必要がありますか?回答するには、回答エリアで適切なオプションを選択してください。
注: 正しい選択ごとに 1 ポイントの価値があります。
정답:

Explanation:

Box 1: 16
For Event Hubs you need to set the partition key explicitly.
An embarrassingly parallel job is the most scalable scenario in Azure Stream Analytics. It connects one partition of the input to one instance of the query to one partition of the output.
Box 2: Transaction ID
Reference:
https://docs.microsoft.com/en-us/azure/event-hubs/event-hubs-features#partitions
寄木細工の形式でバッチデータセットを実装しています。
データタイルは、Azure Data Factoryを使用して作成され、Azure Data Lake StorageGen2に保存されます。ファイルは、Azure SynapseAnalyticsサーバーレスSQLプールによって消費されます。
ソリューションのストレージコストを最小限に抑える必要があります。
あなたは何をするべきか?

정답: C
설명: (DumpTOP 회원만 볼 수 있음)
ある会社は、侵入検知データを分析するために Apache Spark 分析を使用することを計画しています。
悪意のあるアクティビティやポリシー違反について、ネットワークとシステムのアクティビティ データを分析するためのソリューションを推奨する必要があります。ソリューションは、管理作業を最小限に抑える必要があります。
何をお勧めしますか?

정답: D
설명: (DumpTOP 회원만 볼 수 있음)
Azure Data Lake Storage Gen2を使用して、データサイエンティストとデータエンジニアがAzureDatabricksインタラクティブノートブックを使用してクエリするデータを格納します。ユーザーは、作業しているプロジェクトに関連するData LakeStorageフォルダーにのみアクセスできます。
ユーザーに適切なアクセスを提供するために、DatabricksとData LakeStorageに使用する認証方法を推奨する必要があります。このソリューションでは、管理作業と開発作業を最小限に抑える必要があります。
Azureサービスごとにどの認証方法をお勧めしますか?回答するには、回答領域で適切なオプションを選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。
정답:

Explanation:

Box 1: Personal access tokens
You can use storage shared access signatures (SAS) to access an Azure Data Lake Storage Gen2 storage account directly. With SAS, you can restrict access to a storage account using temporary tokens with fine- grained access control.
You can add multiple storage accounts and configure respective SAS token providers in the same Spark session.
Box 2: Azure Active Directory credential passthrough
You can authenticate automatically to Azure Data Lake Storage Gen1 (ADLS Gen1) and Azure Data Lake Storage Gen2 (ADLS Gen2) from Azure Databricks clusters using the same Azure Active Directory (Azure AD) identity that you use to log into Azure Databricks. When you enable your cluster for Azure Data Lake Storage credential passthrough, commands that you run on that cluster can read and write data in Azure Data Lake Storage without requiring you to configure service principal credentials for access to storage.
After configuring Azure Data Lake Storage credential passthrough and creating storage containers, you can access data directly in Azure Data Lake Storage Gen1 using an adl:// path and Azure Data Lake Storage Gen2 using an abfss:// path:
Reference:
https://docs.microsoft.com/en-us/azure/databricks/data/data-sources/azure/adls-gen2/azure-datalake-gen2-sas- access
https://docs.microsoft.com/en-us/azure/databricks/security/credential-passthrough/adls-passthrough
Azure Synapse Analytics 専用 SQL プールにスター スキーマを実装しています。
DimProduct という名前のテーブルを作成する予定です。
DimProduct は、次の要件を満たすタイプ 3 のゆっくりと変化するディメンション (SCO) テーブルである必要があります。
* ProductKey と ProductSourceID という 2 つの列の値は変わりません。
* ProductName、ProductDescription、Color という 3 つの列の値は変更される可能性があります。
次のテーブル定義を完成させるには、列を追加する必要があります。

정답: A,B,D
databricks1 という名前の Azure Databricks ワークスペースと synapse1 という名前の Azure Synapse Analytics ワークスペースを含む Azure サブスクリプションがあります。synapse1 ワークスペースには、pool1 という名前の Apache Spark プールが含まれています。
pool1 の Apache Hive カタログを databricks1 と共有する必要があります。
あなたは何をするべきか?回答するには、回答エリアで適切なオプションを選択します。
注: それぞれの正しい選択は 1 ポイントの価値があります。
정답:

Explanation:
Box 1: Azure SQL Database
Use external Hive Metastore for Synapse Spark Pool
Azure Synapse Analytics allows Apache Spark pools in the same workspace to share a managed HMS (Hive Metastore) compatible metastore as their catalog.
Set up linked service to Hive Metastore
Follow below steps to set up a linked service to the external Hive Metastore in Synapse workspace.
Open Synapse Studio, go to Manage > Linked services at left, click New to create a new linked service.
Set up Hive Metastore linked service
Choose Azure SQL Database or Azure Database for MySQL based on your database type, click Continue.
Provide Name of the linked service. Record the name of the linked service, this info will be used to configure Spark shortly.
You can either select Azure SQL Database/Azure Database for MySQL for the external Hive Metastore from Azure subscription list, or enter the info manually.
Provide User name and Password to set up the connection.
Test connection to verify the username and password.
Click Create to create the linked service.
Box 2: A Hive Metastore
Reference: https://docs.microsoft.com/en-us/azure/synapse-analytics/spark/apache-spark-external-metastore
企業全体の Azure Data Lake Storage Gen2 アカウントを持っています。データ レイクには、VNET1 という名前の Azure 仮想ネットワークを介してのみアクセスできます。
データ レイクからのデータを使用する SQL プールを Azure Synapse に構築しています。
あなたの会社には営業チームがあります。営業チームのすべてのメンバーは、Sales という名前の Azure Active Directory グループに属しています。 POSIX コントロールは、営業グループにデータ レイク内のファイルへのアクセスを割り当てるために使用されます。
1 時間ごとに SQL プールにデータをロードする予定です。
SQL プールがデータ レイクから販売データをロードできることを確認する必要があります。
どの3つのアクションを実行する必要がありますか?それぞれの正解は、ソリューションの一部を示しています。
注: 各エリアの選択は 1 ポイントの価値があります。

정답: A,B,F
설명: (DumpTOP 회원만 볼 수 있음)
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、述べられた目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正しい解決策がある場合がありますが、他の質問セットには正しい解決策がない場合があります。
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
階層構造を持つAzureDatabricksワークスペースを作成することを計画しています。ワークスペースには、次の3つのワークロードが含まれます。
PythonとSQLを使用するデータエンジニアのワークロード。
Python、Scala、およびSOLを使用するノートブックを実行するジョブのワークロード。
データサイエンティストがScalaとRでアドホック分析を実行するために使用するワークロード。
貴社のエンタープライズアーキテクチャチームは、Databricks環境の次の標準を特定しています。
データエンジニアはクラスターを共有する必要があります。
ジョブクラスターは、データサイエンティストとデータエンジニアがクラスターに展開するためのパッケージ化されたノートブックを提供する要求プロセスを使用して管理されます。
すべてのデータサイエンティストには、120分間操作がないと自動的に終了する独自のクラスターを割り当てる必要があります。現在、3人のデータサイエンティストがいます。
ワークロード用のDatabricksクラスターを作成する必要があります。
解決策:データサイエンティストごとに標準クラスター、データエンジニア用に高同時実行クラスター、ジョブ用に高同時実行クラスターを作成します。
これは目標を達成していますか?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)

우리와 연락하기

문의할 점이 있으시면 메일을 보내오세요. 12시간이내에 답장드리도록 하고 있습니다.

근무시간: ( UTC+9 ) 9:00-24:00
월요일~토요일

서포트: 바로 연락하기