최신 DP-203日本語 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203日本語版)
注: この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、記載された目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正解がある場合もあれば、正解がない場合もあります。
このセクションの質問に答えた後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
あなたは、Twitter データを分析する Azure Stream Analytics ソリューションを設計しています。
10 秒ごとにツイートをカウントする必要があります。ソリューションでは、各ツイートが 1 回だけカウントされるようにする必要があります。
解決策: タンブリング ウィンドウを使用し、ウィンドウ サイズを 10 秒に設定します。
これは目標を達成していますか?
このセクションの質問に答えた後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
あなたは、Twitter データを分析する Azure Stream Analytics ソリューションを設計しています。
10 秒ごとにツイートをカウントする必要があります。ソリューションでは、各ツイートが 1 回だけカウントされるようにする必要があります。
解決策: タンブリング ウィンドウを使用し、ウィンドウ サイズを 10 秒に設定します。
これは目標を達成していますか?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
DW1という名前のAzureSynapseAnalyticsのエンタープライズデータウェアハウスを含むAzureデータソリューションがあります。
複数のユーザーがDW1へのアドホッククエリを同時に実行します。
DW1への自動データロードを定期的に実行します。
自動化されたデータロードに、アドホッククエリの実行時に迅速かつ正常に完了するのに十分なメモリが用意されていることを確認する必要があります。
あなたは何をするべきか?
複数のユーザーがDW1へのアドホッククエリを同時に実行します。
DW1への自動データロードを定期的に実行します。
自動化されたデータロードに、アドホッククエリの実行時に迅速かつ正常に完了するのに十分なメモリが用意されていることを確認する必要があります。
あなたは何をするべきか?
정답: C
설명: (DumpTOP 회원만 볼 수 있음)
大規模なファクト テーブルを含む Azure Synapse Analytics 専用の SQL プールがあります。テーブルには 50 の列と 50 億の行が含まれ、ヒープです。
テーブルに対するほとんどのクエリは、約 1 億行の値を集計し、2 列のみを返します。
ファクト テーブルに対するクエリが非常に遅いことがわかりました。
最速のクエリ時間を提供するには、どのタイプのインデックスを追加する必要がありますか?
テーブルに対するほとんどのクエリは、約 1 億行の値を集計し、2 列のみを返します。
ファクト テーブルに対するクエリが非常に遅いことがわかりました。
最速のクエリ時間を提供するには、どのタイプのインデックスを追加する必要がありますか?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
workspace1 という名前の Azure Synapse Analytics ワークスペースを含む Azure サブスクリプションがあります。Workspace1 は、repo1 という名前の Azure DevOps リポジトリに接続します。Repo1 には、main という名前のコラボレーション ブランチと、branch1 という名前の開発ブランチが含まれています。Branch1 には、pipeline1 という名前の Azure Synapse パイプラインが含まれています。
ワークスペース 1 で、パイプライン 1 のテストを完了します。
パイプライン 1 を毎日午前 6 時に実行するようにスケジュールする必要があります。
順番に実行する必要がある 4 つのアクションはどれですか? 答えるには、アクションのリストから適切なアクションを回答エリアに移動し、正しい順序で並べます。
注: 回答の選択肢の順序が 1 つ以上正しいです。選択した正しい注文のいずれかに対してクレジットを受け取ります。
ワークスペース 1 で、パイプライン 1 のテストを完了します。
パイプライン 1 を毎日午前 6 時に実行するようにスケジュールする必要があります。
順番に実行する必要がある 4 つのアクションはどれですか? 答えるには、アクションのリストから適切なアクションを回答エリアに移動し、正しい順序で並べます。
注: 回答の選択肢の順序が 1 つ以上正しいです。選択した正しい注文のいずれかに対してクレジットを受け取ります。
정답:
Explanation:
Pipeline1 という名前の Azure Data Factory パイプラインがあり、これには Copy1 という名前のコピー アクティビティが含まれています。Copy1 には次の構成があります。
* Copy1 のソースは、セルフホステッド統合ランタイムを介して接続されたリンクされたサービスを使用してアクセスされる、オンプレミスの Microsoft SQL Server インスタンス内のテーブルです。
* Copy1 のシンクは、Azure 統合ランタイムを介して接続されたリンクされたサービスを使用してアクセスされる Azure SQL データベース内のテーブルを使用します。
Copy1 で使用できるコンピューティング リソースの量を最大化する必要があります。ソリューションでは、管理労力を最小限に抑える必要があります。
あなたは何をするべきか?
* Copy1 のソースは、セルフホステッド統合ランタイムを介して接続されたリンクされたサービスを使用してアクセスされる、オンプレミスの Microsoft SQL Server インスタンス内のテーブルです。
* Copy1 のシンクは、Azure 統合ランタイムを介して接続されたリンクされたサービスを使用してアクセスされる Azure SQL データベース内のテーブルを使用します。
Copy1 で使用できるコンピューティング リソースの量を最大化する必要があります。ソリューションでは、管理労力を最小限に抑える必要があります。
あなたは何をするべきか?
정답: A
Azure DevOps に Repo1 という名前のリポジトリを含むプロジェクトがあります。Repo1 には main という名前のブランチが含まれています。
Workspace1 という名前の新しい Azure Synapse ワークスペースを作成します。
Workspace1 にデータ処理パイプラインを作成する必要があります。ソリューションは次の要件を満たす必要があります。
* パイプライン アーティファクトは Repo1 に保存する必要があります。
* パイプライン アーティファクトにはソース管理を提供する必要があります。
* すべての開発は機能ブランチで実行する必要があります。
Synapse Studio で順番に実行する必要がある 4 つのアクションはどれですか? 回答するには、アクションのリストから適切なアクションを回答領域に移動し、正しい順序で並べます。
Workspace1 という名前の新しい Azure Synapse ワークスペースを作成します。
Workspace1 にデータ処理パイプラインを作成する必要があります。ソリューションは次の要件を満たす必要があります。
* パイプライン アーティファクトは Repo1 に保存する必要があります。
* パイプライン アーティファクトにはソース管理を提供する必要があります。
* すべての開発は機能ブランチで実行する必要があります。
Synapse Studio で順番に実行する必要がある 4 つのアクションはどれですか? 回答するには、アクションのリストから適切なアクションを回答領域に移動し、正しい順序で並べます。
정답:
Explanation:
Azure Data Factory からファイルを出力する必要があります。
出力の種類ごとにどのファイル形式を使用する必要がありますか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。
出力の種類ごとにどのファイル形式を使用する必要がありますか?答えるには、答えで適切なオプションを選択します。
注: 正しい選択ごとに 1 ポイントの価値があります。
정답:
Explanation:
Box 1: Parquet
Parquet stores data in columns, while Avro stores data in a row-based format. By their very nature, column- oriented data stores are optimized for read-heavy analytical workloads, while row-based databases are best for write-heavy transactional workloads.
Box 2: Avro
An Avro schema is created using JSON format.
AVRO supports timestamps.
Note: Azure Data Factory supports the following file formats (not GZip or TXT).
* Avro format
* Binary format
* Delimited text format
* Excel format
* JSON format
* ORC format
* Parquet format
* XML format
Reference:
https://www.datanami.com/2018/05/16/big-data-file-formats-demystified
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、述べられた目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正しい解決策がある場合がありますが、他の質問セットには正しい解決策がない場合があります。
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
Table1という名前のテーブルを含むAzureSynapseAnalytics専用のSQLプールがあります。
container1という名前のAzureData Lake StorageGen2コンテナーに取り込まれてロードされるファイルがあります。
container1のファイルからTable1にデータを挿入し、データを変換することを計画しています。ファイル内のデータの各行は、Table1のサービングレイヤーに1つの行を生成します。
ソースデータファイルがcontainer1にロードされるときに、DateTimeが追加の列としてTable1に格納されていることを確認する必要があります。
解決策:専用のSQLプールを使用して、追加のDateTime列を持つ外部テーブルを作成します。
これは目標を達成していますか?
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
Table1という名前のテーブルを含むAzureSynapseAnalytics専用のSQLプールがあります。
container1という名前のAzureData Lake StorageGen2コンテナーに取り込まれてロードされるファイルがあります。
container1のファイルからTable1にデータを挿入し、データを変換することを計画しています。ファイル内のデータの各行は、Table1のサービングレイヤーに1つの行を生成します。
ソースデータファイルがcontainer1にロードされるときに、DateTimeが追加の列としてTable1に格納されていることを確認する必要があります。
解決策:専用のSQLプールを使用して、追加のDateTime列を持つ外部テーブルを作成します。
これは目標を達成していますか?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
pool1 という名前の Azure Synapse Analytics 専用 SQL プールがあります。
次のコードを使用して、pool1 にスター スキーマを実装し、DimCustomer という名前の新しいテーブルを作成する予定です。
タイプ 2 の緩やかに変化するディメンション (SCD) をサポートするために必要な列が DimCustomer にあることを確認する必要があります。どの 2 つの列を追加する必要がありますか? 各正解は、ソリューションの一部を示しています。注: それぞれの正しい選択は 1 ポイントの価値があります。
次のコードを使用して、pool1 にスター スキーマを実装し、DimCustomer という名前の新しいテーブルを作成する予定です。
タイプ 2 の緩やかに変化するディメンション (SCD) をサポートするために必要な列が DimCustomer にあることを確認する必要があります。どの 2 つの列を追加する必要がありますか? 各正解は、ソリューションの一部を示しています。注: それぞれの正しい選択は 1 ポイントの価値があります。
정답: C,E
WS1 という名前の Azure Synapse Analytics ワークスペースがあります。
次の形式の JSON 形式のファイルを含む Azure Data Lake Storage Gen2 コンテナーがあります。
ファイルを読み取るには、WS1 のサーバーレス SQL プールを使用する必要があります。
Transact-SQL ステートメントはどのように完了すればよいでしょうか?答えるには、適切な値を正しいターゲットにドラッグします。各値は 1 回使用することも、複数回使用することも、まったく使用しないこともできます。コンテンツを表示するには、ペイン間で分割バーをドラッグするか、スクロールする必要がある場合があります。
注: 正しく選択するたびに 1 ポイントの価値があります。
次の形式の JSON 形式のファイルを含む Azure Data Lake Storage Gen2 コンテナーがあります。
ファイルを読み取るには、WS1 のサーバーレス SQL プールを使用する必要があります。
Transact-SQL ステートメントはどのように完了すればよいでしょうか?答えるには、適切な値を正しいターゲットにドラッグします。各値は 1 回使用することも、複数回使用することも、まったく使用しないこともできます。コンテンツを表示するには、ペイン間で分割バーをドラッグするか、スクロールする必要がある場合があります。
注: 正しく選択するたびに 1 ポイントの価値があります。
정답:
Explanation:
Box 1: openrowset
The easiest way to see to the content of your CSV file is to provide file URL to OPENROWSET function, specify csv FORMAT.
Example:
SELECT *
FROM OPENROWSET(
BULK 'csv/population/population.csv',
DATA_SOURCE = 'SqlOnDemandDemo',
FORMAT = 'CSV', PARSER_VERSION = '2.0',
FIELDTERMINATOR =',',
ROWTERMINATOR = '\n'
Box 2: openjson
You can access your JSON files from the Azure File Storage share by using the mapped drive, as shown in the following example:
SELECT book.* FROM
OPENROWSET(BULK N't:\books\books.json', SINGLE_CLOB) AS json
CROSS APPLY OPENJSON(BulkColumn)
WITH( id nvarchar(100), name nvarchar(100), price float,
pages_i int, author nvarchar(100)) AS book
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql/query-single-csv-file
https://docs.microsoft.com/en-us/sql/relational-databases/json/import-json-documents-into-sql-server
小売店テーブルの代理キーを実装する必要があります。ソリューションは、販売トランザクション データセットの要件を満たす必要があります。
何を作成する必要がありますか?
何を作成する必要がありますか?
정답: D
설명: (DumpTOP 회원만 볼 수 있음)
次の表に示すユーザーを含むAzureSynapseAnalytics専用のSQLプールがあります。
User1はデータベースに対してクエリを実行し、クエリは次の図に示す結果を返します。
User1は、マスクされていないデータにアクセスできる唯一のユーザーです。
ドロップダウンメニューを使用して、図に示されている情報に基づいて各ステートメントを完了する回答の選択肢を選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。
User1はデータベースに対してクエリを実行し、クエリは次の図に示す結果を返します。
User1は、マスクされていないデータにアクセスできる唯一のユーザーです。
ドロップダウンメニューを使用して、図に示されている情報に基づいて各ステートメントを完了する回答の選択肢を選択します。
注:正しい選択はそれぞれ1ポイントの価値があります。
정답:
Explanation:
Box 1: 0
The YearlyIncome column is of the money data type.
The Default masking function: Full masking according to the data types of the designated fields
* Use a zero value for numeric data types (bigint, bit, decimal, int, money, numeric, smallint, smallmoney, tinyint, float, real).
Box 2: the values stored in the database
Users with administrator privileges are always excluded from masking, and see the original data without any mask.
Reference:
https://docs.microsoft.com/en-us/azure/azure-sql/database/dynamic-data-masking-overview
注:この質問は、同じシナリオを提示する一連の質問の一部です。シリーズの各質問には、述べられた目標を達成する可能性のある独自の解決策が含まれています。一部の質問セットには複数の正しい解決策がある場合がありますが、他の質問セットには正しい解決策がない場合があります。
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
階層構造を持つAzureDatabricksワークスペースを作成することを計画しています。ワークスペースには、次の3つのワークロードが含まれます。
PythonとSQLを使用するデータエンジニアのワークロード。
Python、Scala、およびSOLを使用するノートブックを実行するジョブのワークロード。
データサイエンティストがScalaとRでアドホック分析を実行するために使用するワークロード。
貴社のエンタープライズアーキテクチャチームは、Databricks環境の次の標準を特定しています。
データエンジニアはクラスターを共有する必要があります。
ジョブクラスターは、データサイエンティストとデータエンジニアがクラスターに展開するためのパッケージ化されたノートブックを提供する要求プロセスを使用して管理されます。
すべてのデータサイエンティストには、120分間操作がないと自動的に終了する独自のクラスターを割り当てる必要があります。現在、3人のデータサイエンティストがいます。
ワークロード用のDatabricksクラスターを作成する必要があります。
解決策:データサイエンティストごとに標準クラスター、データエンジニア用に高同時実行クラスター、ジョブ用に高同時実行クラスターを作成します。
これは目標を達成していますか?
このセクションの質問に回答した後は、その質問に戻ることはできません。その結果、これらの質問はレビュー画面に表示されません。
階層構造を持つAzureDatabricksワークスペースを作成することを計画しています。ワークスペースには、次の3つのワークロードが含まれます。
PythonとSQLを使用するデータエンジニアのワークロード。
Python、Scala、およびSOLを使用するノートブックを実行するジョブのワークロード。
データサイエンティストがScalaとRでアドホック分析を実行するために使用するワークロード。
貴社のエンタープライズアーキテクチャチームは、Databricks環境の次の標準を特定しています。
データエンジニアはクラスターを共有する必要があります。
ジョブクラスターは、データサイエンティストとデータエンジニアがクラスターに展開するためのパッケージ化されたノートブックを提供する要求プロセスを使用して管理されます。
すべてのデータサイエンティストには、120分間操作がないと自動的に終了する独自のクラスターを割り当てる必要があります。現在、3人のデータサイエンティストがいます。
ワークロード用のDatabricksクラスターを作成する必要があります。
解決策:データサイエンティストごとに標準クラスター、データエンジニア用に高同時実行クラスター、ジョブ用に高同時実行クラスターを作成します。
これは目標を達成していますか?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Job1 という名前の Azure Stream Analytics ジョブがあります。
過去 1 時間の Job1 のメトリクスを次の表に示します。
Job1 の遅延到着許容値は 5 秒に設定されています。
Job1 を最適化する必要があります。
目標を達成できる 2 つのアクションはどれですか?それぞれの正解は完全な解決策を示します。
注: 各正解は 1 ポイントの価値があります。
過去 1 時間の Job1 のメトリクスを次の表に示します。
Job1 の遅延到着許容値は 5 秒に設定されています。
Job1 を最適化する必要があります。
目標を達成できる 2 つのアクションはどれですか?それぞれの正解は完全な解決策を示します。
注: 各正解は 1 ポイントの価値があります。
정답: B,C
3 つのパイプラインと、Trigger 1、Trigger2、Tiigger3 という名前の 3 つのトリガーを含む Azure Synapse Analytics ワークスペースがあります。
トリガー 3 には次の定義があります。
トリガー 3 には次の定義があります。
정답:
Explanation:
Contacts という名前のテーブルを含む Azure Synapse Analystics 専用の SQL プールがあります。連絡先には、電話という名前の列が含まれています。
特定の役割のユーザーが [電話] 列をクエリするときに、電話番号の下 4 桁のみが表示されるようにする必要があります。
ソリューションには何を含める必要がありますか?
特定の役割のユーザーが [電話] 列をクエリするときに、電話番号の下 4 桁のみが表示されるようにする必要があります。
ソリューションには何を含める必要がありますか?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)