최신 DP-203日本語 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203日本語版)

Azure Data Lake Storage Gen2 のデプロイを計画しています。
データレイクにアクセスする次の 2 つのレポートがあります。
Report1: 50 列を含むファイルから 3 つの列を読み取ります。
Report2: タイムスタンプに基づいて単一のレコードをクエリします。
レポートをサポートするには、データ レイクにデータを保存する形式を推奨する必要があります。ソリューションは、読み取り時間を最小限に抑える必要があります。
各レポートで何を推奨しますか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。
정답:

Explanation:

Report1: CSV
CSV: The destination writes records as delimited data.
Report2: AVRO
AVRO supports timestamps.
Not Parquet, TSV: Not options for Azure Data Lake Storage Gen2.
Reference:
https://streamsets.com/documentation/datacollector/latest/help/datacollector/UserGuide/Destinations/ADLS- G2-D.html
Azureサブスクリプションがあります。
Azure Data Lake Storage Gen2Premiumアカウントをデプロイする必要があります。ソリューションは、次の要件を満たしている必要があります。
* 365日より古いブロブは削除する必要があります。
*管理者の労力を最小限に抑える必要があります。
*コストを最小限に抑える必要があります
何を使うべきですか?答えるには、答えの中から適切なオプションを選択してください。注正しい選択はそれぞれ1ポイントの価値があります。
정답:

Explanation:

https://learn.microsoft.com/en-us/azure/storage/blobs/premium-tier-for-data-lake-storage
Azure Synapseに、dbo.Customersという名前のテーブルを含むSQLプールがあります。テーブルには、Emailという列名が含まれています。
管理者以外のユーザーが[電子メール]列に完全な電子メールアドレスを表示しないようにする必要があります。ユーザーは、代わりに[email protected]の形式で値を表示する必要があります。
あなたは何をするべきか?

정답: D
설명: (DumpTOP 회원만 볼 수 있음)
次の表に示すリソースを含む Azure サブスクリプションがあります。

storage1 アカウントには、container1 という名前のコンテナーが含まれています。 Container1 コンテナには次のファイルが含まれています。

組み込みのサーバーレス SQL プールで、次のスクリプトを実行します。

次の各ステートメントについて、そのステートメントが true の場合は [はい] を選択します。それ以外の場合は、「いいえ」を選択します。 注: 正しく選択するたびに 1 ポイントの価値があります。
정답:

Explanation:
ADM という名前の Azure データ ファクトリがあります。
現在、すべてのパイプライン作成の変更は ADF1 に直接公開されています。
パイプライン成果物に加えられた変更に対してバージョン管理を実装する必要があります。ソリューションでは、AOFl の Azure Data Factory Studio で現在定義されているリソースにバージョン管理を適用できることを保証する必要があります。実行する必要がある 2 つのアクションはどれですか。各正解はソリューションの一部を示しています。注: 正解の選択はそれぞれ 1 ポイントの価値があります。

정답: C,D
eコマーストランザクションの不正を検出するためのワークロードをサポートするために、Azure SynapseAnalytics専用のSQLプール用のデータベースを設計しています。
データは複数のeコマースサイトから結合され、クレジットカード番号などの機密性の高い財務情報を含めることができます。
次の要件を満たすソリューションを推奨する必要があります。
*ユーザーは、不正の可能性のある取引を特定できる必要があります。
*ユーザーは、モデルの潜在的な機能としてクレジットカードを使用できる必要があります。
*ユーザーは実際のクレジットカード番号にアクセスできないようにする必要があります。
推奨事項には何を含める必要がありますか?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Azure Synapse Analytics で、Customers という名前のテーブルを含むエンタープライズ データ ウェアハウスを設計しています。顧客にはクレジット カード情報が含まれます。
Customers のすべてのエントリを表示する機能を営業担当者に提供するソリューションを推奨する必要があります。
このソリューションでは、すべての販売員がクレジット カード情報を表示または推測できないようにする必要があります。
推奨事項には何を含めるべきですか?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
AzureDatabricksで構造化ストリーミングソリューションを構築することを計画しています。このソリューションは、5分間隔で新しいイベントをカウントし、その間隔中に到着したイベントのみを報告します。出力はDeltaLakeテーブルに送信されます。
どの出力モードを使用する必要がありますか?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
ユーザー定義のローカル プロセスを実行する Azure Databricks クラスターを設計しています。次の要件を満たすクラスター構成を推奨する必要があります。
* クエリの遅延を最小限に抑えます。
* クラスター上で同時にキューを実行できるユーザーの数を最大化する 他の要件を損なうことなく全体のコストを削減する どのクラスター タイプを推奨しますか?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Azure Stream Analytics クエリがあります。クエリは、clusterID という名前の列の 10,000 の個別の値を含む結果セットを返します。
Stream Analytics ジョブを監視し、待機時間が長いことを発見しました。
遅延を減らす必要があります。
どの2つのアクションを実行する必要がありますか?それぞれの正解は完全な解決策を示しています。
注: 正しい選択ごとに 1 ポイントの価値があります。

정답: B,C
설명: (DumpTOP 회원만 볼 수 있음)
Pool1 という名前の Azure Synapse Analytics 専用 SQL プールを含む Azure サブスクリプションがあります。Pool1 は 24 時間ごとに新しいデータを受け取ります。
次の機能があります。

次のクエリがあります。

クエリは 15 分ごとに 1 回実行され、@parameter 値は現在の日付に設定されます。
クエリが結果を返すまでの時間を最小限に抑える必要があります。
どの 2 つのアクションを実行する必要がありますか? 各正解は、ソリューションの一部を示しています。
注: それぞれの正しい選択は 1 ポイントの価値があります。

정답: A,C
설명: (DumpTOP 회원만 볼 수 있음)
Azureデータファクトリがあります。
最後の180フレイからのパイプライン障害を調べる必要があります。
何を使うべきですか?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
ジオゾーン冗長ストレージ(GZRS)を含む高可用性Azure Data LakeStorageソリューションを設計しています。
目標復旧時点(RPO)に影響を与える可能性のあるレプリケーションの遅延を監視する必要があります。
監視ソリューションには何を含める必要がありますか?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
企業全体の Azure Data Lake Storage Gen2 アカウントを持っています。データ レイクには、VNET1 という名前の Azure 仮想ネットワークを介してのみアクセスできます。
データ レイクからのデータを使用する SQL プールを Azure Synapse に構築しています。
あなたの会社には営業チームがあります。営業チームのすべてのメンバーは、Sales という名前の Azure Active Directory グループに属しています。 POSIX コントロールは、営業グループにデータ レイク内のファイルへのアクセスを割り当てるために使用されます。
1 時間ごとに SQL プールにデータをロードする予定です。
SQL プールがデータ レイクから販売データをロードできることを確認する必要があります。
どの3つのアクションを実行する必要がありますか?それぞれの正解は、ソリューションの一部を示しています。
注: 各エリアの選択は 1 ポイントの価値があります。

정답: A,B,F
설명: (DumpTOP 회원만 볼 수 있음)
Azure Synapse Analytics サーバーレス SQL プールにデータベースを構築しています。
Azure Data Lake Storage Gen2 コンテナー内の Parquet ファイルにデータが格納されています。
レコードは、次のサンプルに示すように構造化されています。
{
"id": 123,
"address_housenumber": "19c",
"address_line": "Memory Lane",
"applicant1_name": "Jane",
"applicant2_name": "Dev"
}
レコードには最大 2 人の応募者が含まれます。
住所フィールドのみを含むテーブルを作成する必要があります。
Transact-SQL ステートメントをどのように完成させる必要がありますか? 回答するには、回答エリアで適切なオプションを選択します。
注: それぞれの正しい選択は 1 ポイントの価値があります。
정답:

Explanation:
Box 1: CREATE EXTERNAL TABLE
An external table points to data located in Hadoop, Azure Storage blob, or Azure Data Lake Storage. External tables are used to read data from files or write data to files in Azure Storage. With Synapse SQL, you can use external tables to read external data using dedicated SQL pool or serverless SQL pool.
Syntax:
CREATE EXTERNAL TABLE { database_name.schema_name.table_name | schema_name.table_name | table_name } ( <column_definition> [ ,...n ] ) WITH ( LOCATION = 'folder_or_filepath', DATA_SOURCE = external_data_source_name, FILE_FORMAT = external_file_format_name Box 2. OPENROWSET When using serverless SQL pool, CETAS is used to create an external table and export query results to Azure Storage Blob or Azure Data Lake Storage Gen2.
Example:
AS
SELECT decennialTime, stateName, SUM(population) AS population
FROM
OPENROWSET(BULK 'https://azureopendatastorage.blob.core.windows.net/censusdatacontainer/release
/us_population_county/year=*/*.parquet',
FORMAT='PARQUET') AS [r]
GROUP BY decennialTime, stateName
GO
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql/develop-tables-external-tables
Pool1という名前のApacheSparkプールを含むWS1という名前のAzureSynapseAnalyticsワークスペースがあります。
Pool1にD61という名前のデータベースを作成する予定です。
DB1でテーブルを作成するときに、テーブルが組み込みのサーバーレスSQLポッドの外部テーブルとして自動的に使用可能になるようにする必要があります。
DB1のテーブルにはどの形式を使用する必要がありますか?

정답: D
설명: (DumpTOP 회원만 볼 수 있음)

우리와 연락하기

문의할 점이 있으시면 메일을 보내오세요. 12시간이내에 답장드리도록 하고 있습니다.

근무시간: ( UTC+9 ) 9:00-24:00
월요일~토요일

서포트: 바로 연락하기