최신 DP-203 Deutsch 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203 Deutsch Version)
Sie verfügen über eine Azure-Datenlösung, die ein Enterprise Data Warehouse in Azure Synapse Analytics mit dem Namen DW1 enthält.
Mehrere Benutzer führen gleichzeitig Ad-hoc-Abfragen an DW1 aus.
Sie führen regelmäßig automatisierte Datenladevorgänge in DW1 durch.
Sie müssen sicherstellen, dass den automatisierten Datenladevorgängen genügend Speicher zur Verfügung steht, um bei der Ausführung der Ad-hoc-Abfragen schnell und erfolgreich abgeschlossen zu werden.
Was sollte man tun?
Mehrere Benutzer führen gleichzeitig Ad-hoc-Abfragen an DW1 aus.
Sie führen regelmäßig automatisierte Datenladevorgänge in DW1 durch.
Sie müssen sicherstellen, dass den automatisierten Datenladevorgängen genügend Speicher zur Verfügung steht, um bei der Ausführung der Ad-hoc-Abfragen schnell und erfolgreich abgeschlossen zu werden.
Was sollte man tun?
정답: C
설명: (DumpTOP 회원만 볼 수 있음)
Sie haben einen Apache Spark DataFrame mit dem Namen „temperatures“. Ein Beispiel der Daten ist in der folgenden Tabelle aufgeführt.
Sie müssen die folgende Tabelle mithilfe einer Spark-SQL-Abfrage erstellen.
Wie sollten Sie die Abfrage abschließen? Um zu antworten, ziehen Sie die entsprechenden Werte auf die richtigen Ziele. Jeder Wert kann einmal, mehrmals oder überhaupt nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Fenstern ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie müssen die folgende Tabelle mithilfe einer Spark-SQL-Abfrage erstellen.
Wie sollten Sie die Abfrage abschließen? Um zu antworten, ziehen Sie die entsprechenden Werte auf die richtigen Ziele. Jeder Wert kann einmal, mehrmals oder überhaupt nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Fenstern ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Box 1: PIVOT
PIVOT rotates a table-valued expression by turning the unique values from one column in the expression into multiple columns in the output. And PIVOT runs aggregations where they're required on any remaining column values that are wanted in the final output.
Reference:
https://learnsql.com/cookbook/how-to-convert-an-integer-to-a-decimal-in-sql-server/
https://docs.microsoft.com/en-us/sql/t-sql/queries/from-using-pivot-and-unpivot
Ein Unternehmen nutzt Azure Stream Analytics zur Überwachung von Geräten.
Das Unternehmen plant, die Anzahl der überwachten Geräte zu verdoppeln.
Sie müssen einen Stream Analytics-Auftrag überwachen, um sicherzustellen, dass genügend Verarbeitungsressourcen vorhanden sind, um die zusätzliche Last zu bewältigen.
Welche Metrik sollten Sie überwachen?
Das Unternehmen plant, die Anzahl der überwachten Geräte zu verdoppeln.
Sie müssen einen Stream Analytics-Auftrag überwachen, um sicherzustellen, dass genügend Verarbeitungsressourcen vorhanden sind, um die zusätzliche Last zu bewältigen.
Welche Metrik sollten Sie überwachen?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Sie konfigurieren die Versionskontrolle für eine Azure Data Factory-Instanz, wie in der folgenden Abbildung gezeigt.
Verwenden Sie die Dropdown-Menüs, um die Antwortmöglichkeit auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Verwenden Sie die Dropdown-Menüs, um die Antwortmöglichkeit auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Box 1: adf_publish
The Publish branch is the branch in your repository where publishing related ARM templates are stored and updated. By default, it's adf_publish.
Box 2: / dwh_batchetl/adf_publish/contososales
Note: RepositoryName (here dwh_batchetl): Your Azure Repos code repository name. Azure Repos projects contain Git repositories to manage your source code as your project grows. You can create a new repository or use an existing repository that's already in your project.
Reference:
https://docs.microsoft.com/en-us/azure/data-factory/source-control
Sie verfügen über ein Azure-Abonnement, das mit einem Azure Active Directory (Azure AD)-Mandanten verknüpft ist, der einen Dienstprinzipal namens ServicePrincipal1 enthält. Das Abonnement enthält ein Azure Data Lake Storage-Konto mit dem Namen adls1. Adls1 enthält einen Ordner namens Folder2 mit der URI
https://adls1.dfs.core.windows.net/container1/Folder1/Folder2/.
ServicePrincipal1 verfügt über die in der folgenden Tabelle aufgeführten Zugriffskontrolllistenberechtigungen (ACL).
Sie müssen sicherstellen, dass ServicePrincipal1 die folgenden Aktionen ausführen kann:
* Durchsuchen Sie untergeordnete Elemente, die in Ordner2 erstellt werden.
* Lesen Sie Dateien, die in Ordner2 erstellt werden.
Die Lösung muss das Prinzip der geringsten Rechte nutzen.
Welche beiden Berechtigungen sollten Sie ServicePrincipal1 für Ordner2 erteilen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
https://adls1.dfs.core.windows.net/container1/Folder1/Folder2/.
ServicePrincipal1 verfügt über die in der folgenden Tabelle aufgeführten Zugriffskontrolllistenberechtigungen (ACL).
Sie müssen sicherstellen, dass ServicePrincipal1 die folgenden Aktionen ausführen kann:
* Durchsuchen Sie untergeordnete Elemente, die in Ordner2 erstellt werden.
* Lesen Sie Dateien, die in Ordner2 erstellt werden.
Die Lösung muss das Prinzip der geringsten Rechte nutzen.
Welche beiden Berechtigungen sollten Sie ServicePrincipal1 für Ordner2 erteilen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답: A,F
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über eine C#-Anwendung, die Daten von einem Azure IoT Hub verarbeitet und komplexe Transformationen durchführt.
Sie müssen die Anwendung durch eine Echtzeitlösung ersetzen. Die Lösung muss so viel Code wie möglich aus der vorhandenen Anwendung wiederverwenden.
Sie müssen die Anwendung durch eine Echtzeitlösung ersetzen. Die Lösung muss so viel Code wie möglich aus der vorhandenen Anwendung wiederverwenden.
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über ein Azure Storage-Konto, das täglich 200.000 neue Dateien generiert. Die Dateinamen haben das Format
{JJJJ}/{MM}/{TT}/{HH}/{Kunden-ID}.csv.
Sie müssen eine Azure Data Factory-Lösung entwerfen, die einmal stündlich neue Daten vom Speicherkonto in einen Azure Data Lake lädt. Die Lösung muss Ladezeiten und Kosten minimieren.
Wie sollten Sie die Lösung konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
{JJJJ}/{MM}/{TT}/{HH}/{Kunden-ID}.csv.
Sie müssen eine Azure Data Factory-Lösung entwerfen, die einmal stündlich neue Daten vom Speicherkonto in einen Azure Data Lake lädt. Die Lösung muss Ladezeiten und Kosten minimieren.
Wie sollten Sie die Lösung konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Box 1: Incremental load
Box 2: Tumbling window
Tumbling windows are a series of fixed-sized, non-overlapping and contiguous time intervals. The following diagram illustrates a stream with a series of events and how they are mapped into 10-second tumbling windows.
Reference:
https://docs.microsoft.com/en-us/stream-analytics-query/tumbling-window-azure-stream-analytics
Sie verfügen über einen SQL-Pool in Azure Synapse.
Sie stellen fest, dass einige Abfragen fehlschlagen oder lange dauern.
Sie müssen auf Transaktionen achten, die zurückgesetzt wurden.
Welche dynamische Verwaltungsansicht sollten Sie abfragen?
Sie stellen fest, dass einige Abfragen fehlschlagen oder lange dauern.
Sie müssen auf Transaktionen achten, die zurückgesetzt wurden.
Welche dynamische Verwaltungsansicht sollten Sie abfragen?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über einen Azure Stream Analytics-Auftrag, der Clickstream-Daten von einem Azure Event Hub empfängt.
Sie müssen eine Abfrage im Stream Analytics-Job definieren. Die Abfrage muss folgende Anforderungen erfüllen:
* Zählen Sie die Anzahl der Klicks innerhalb jedes 10-Sekunden-Fensters basierend auf dem Land eines Besuchers.
* Stellen Sie sicher, dass jeder Klick NICHT mehr als einmal gezählt wird.
Wie sollten Sie die Abfrage definieren?
Sie müssen eine Abfrage im Stream Analytics-Job definieren. Die Abfrage muss folgende Anforderungen erfüllen:
* Zählen Sie die Anzahl der Klicks innerhalb jedes 10-Sekunden-Fensters basierend auf dem Land eines Besuchers.
* Stellen Sie sicher, dass jeder Klick NICHT mehr als einmal gezählt wird.
Wie sollten Sie die Abfrage definieren?
정답: C
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über ein Azure-Abonnement, das die in der folgenden Tabelle aufgeführten Ressourcen enthält.
Sie müssen die Parquet-Dateien mithilfe von Pipeline1 von Speicher1 in SQL1 aufnehmen. Die Lösung muss folgende Anforderungen erfüllen:
* Komplexität minimieren.
* Stellen Sie sicher, dass zusätzliche Spalten in den Dateien als Zeichenfolgen verarbeitet werden.
* Stellen Sie sicher, dass Dateien, die zusätzliche Spalten enthalten, erfolgreich verarbeitet werden.
Wie sollten Sie Pipeline1 konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie müssen die Parquet-Dateien mithilfe von Pipeline1 von Speicher1 in SQL1 aufnehmen. Die Lösung muss folgende Anforderungen erfüllen:
* Komplexität minimieren.
* Stellen Sie sicher, dass zusätzliche Spalten in den Dateien als Zeichenfolgen verarbeitet werden.
* Stellen Sie sicher, dass Dateien, die zusätzliche Spalten enthalten, erfolgreich verarbeitet werden.
Wie sollten Sie Pipeline1 konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Sie verfügen über eine Azure Data Factory-Pipeline mit dem Namen „pipeline1“, die eine Kopieraktivität mit dem Namen „Copy1“ enthält. Copy1 hat die folgenden Konfigurationen:
* Die Quelle von Copy1 ist eine Tabelle in einer lokalen Microsoft SQL Server-Instanz, auf die über einen verknüpften Dienst zugegriffen wird, der über eine selbstgehostete Integration Runtime verbunden ist.
* Die Senke von Copy1 verwendet eine Tabelle in einer Azure SQL-Datenbank, auf die über einen verknüpften Dienst zugegriffen wird, der über eine Azure Integration Runtime verbunden ist.
Sie müssen die Menge der für Copy1 verfügbaren Rechenressourcen maximieren. Die Lösung muss den Verwaltungsaufwand minimieren.
Was sollte man tun?
* Die Quelle von Copy1 ist eine Tabelle in einer lokalen Microsoft SQL Server-Instanz, auf die über einen verknüpften Dienst zugegriffen wird, der über eine selbstgehostete Integration Runtime verbunden ist.
* Die Senke von Copy1 verwendet eine Tabelle in einer Azure SQL-Datenbank, auf die über einen verknüpften Dienst zugegriffen wird, der über eine Azure Integration Runtime verbunden ist.
Sie müssen die Menge der für Copy1 verfügbaren Rechenressourcen maximieren. Die Lösung muss den Verwaltungsaufwand minimieren.
Was sollte man tun?
정답: B
Sie verwenden PySpark in Azure Databricks, um die folgende JSON-Eingabe zu analysieren.
Sie müssen die Daten im folgenden Tabellenformat ausgeben.
Wie sollten Sie den PySpark-Code vervollständigen? Um zu antworten, ziehen Sie die entsprechenden Werte auf die richtigen Ziele.
Jeder Wert kann einmal, mehrmals oder gar nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Fenstern ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie müssen die Daten im folgenden Tabellenformat ausgeben.
Wie sollten Sie den PySpark-Code vervollständigen? Um zu antworten, ziehen Sie die entsprechenden Werte auf die richtigen Ziele.
Jeder Wert kann einmal, mehrmals oder gar nicht verwendet werden. Möglicherweise müssen Sie die Trennleiste zwischen den Fenstern ziehen oder scrollen, um den Inhalt anzuzeigen.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Box 1: select
Box 2: explode
Bop 3: alias
pyspark.sql.Column.alias returns this column aliased with a new name or names (in the case of expressions that return more than one column, such as explode).
Reference:
https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.Column.alias.html
https://docs.microsoft.com/en-us/azure/databricks/sql/language-manual/functions/explode
Sie verfügen über einen Azure Synapse Analytics-Arbeitsbereich, der drei Pipelines und drei Trigger mit den Namen Trigger 1, Trigger2 und Tiigger3 enthält.
Auslöser 3 hat die folgende Definition.
Auslöser 3 hat die folgende Definition.
정답:
Explanation:
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die dasselbe Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie in diesem Szenario eine Frage beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie verfügen über ein Azure Storage-Konto, das 100 GB Dateien enthält. Die Dateien enthalten Text und numerische Werte.
75 % der Zeilen enthalten Beschreibungsdaten mit einer durchschnittlichen Länge von 1,1 MB.
Sie planen, die Daten aus dem Speicherkonto in ein Azure SQL Data Warehouse zu kopieren.
Sie müssen die Dateien vorbereiten, um sicherzustellen, dass die Daten schnell kopiert werden.
Lösung: Sie ändern die Dateien, um sicherzustellen, dass jede Zeile mehr als 1 MB groß ist.
Erfüllt dies das Ziel?
Nachdem Sie in diesem Szenario eine Frage beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie verfügen über ein Azure Storage-Konto, das 100 GB Dateien enthält. Die Dateien enthalten Text und numerische Werte.
75 % der Zeilen enthalten Beschreibungsdaten mit einer durchschnittlichen Länge von 1,1 MB.
Sie planen, die Daten aus dem Speicherkonto in ein Azure SQL Data Warehouse zu kopieren.
Sie müssen die Dateien vorbereiten, um sicherzustellen, dass die Daten schnell kopiert werden.
Lösung: Sie ändern die Dateien, um sicherzustellen, dass jede Zeile mehr als 1 MB groß ist.
Erfüllt dies das Ziel?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Sie haben die folgende Azure Stream Analytics-Abfrage.
Wählen Sie für jede der folgenden Aussagen Ja aus, wenn die Aussage wahr ist. Andernfalls wählen Sie Nein.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Wählen Sie für jede der folgenden Aussagen Ja aus, wenn die Aussage wahr ist. Andernfalls wählen Sie Nein.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Box 1: Yes
You can now use a new extension of Azure Stream Analytics SQL to specify the number of partitions of a stream when reshuffling the data.
The outcome is a stream that has the same partition scheme. Please see below for an example:
WITH step1 AS (SELECT * FROM [input1] PARTITION BY DeviceID INTO 10),
step2 AS (SELECT * FROM [input2] PARTITION BY DeviceID INTO 10)
SELECT * INTO [output] FROM step1 PARTITION BY DeviceID UNION step2 PARTITION BY DeviceID Note: The new extension of Azure Stream Analytics SQL includes a keyword INTO that allows you to specify the number of partitions for a stream when performing reshuffling using a PARTITION BY statement.
Box 2: Yes
When joining two streams of data explicitly repartitioned, these streams must have the same partition key and partition count.
Box 3: Yes
10 partitions x six SUs = 60 SUs is fine.
Note: Remember, Streaming Unit (SU) count, which is the unit of scale for Azure Stream Analytics, must be adjusted so the number of physical resources available to the job can fit the partitioned flow. In general, six SUs is a good number to assign to each partition. In case there are insufficient resources assigned to the job, the system will only apply the repartition if it benefits the job.
Reference:
https://azure.microsoft.com/en-in/blog/maximize-throughput-with-repartitioning-in-azure-stream-analytics/
Sie entwerfen einen Azure Stream Analytics-Auftrag, um eingehende Ereignisse von Sensoren in Einzelhandelsumgebungen zu verarbeiten.
Sie müssen die Ereignisse verarbeiten, um einen laufenden Durchschnitt der Käuferzahlen während der letzten 15 Minuten zu ermitteln, der in Fünf-Minuten-Intervallen berechnet wird.
Welchen Fenstertyp sollten Sie verwenden?
Sie müssen die Ereignisse verarbeiten, um einen laufenden Durchschnitt der Käuferzahlen während der letzten 15 Minuten zu ermitteln, der in Fünf-Minuten-Intervallen berechnet wird.
Welchen Fenstertyp sollten Sie verwenden?
정답: C
설명: (DumpTOP 회원만 볼 수 있음)
Sie entwickeln eine Lösung, die an Azure Stream Analytics streamt. Die Lösung verfügt sowohl über Streaming-Daten als auch über Referenzdaten.
Welchen Eingabetyp sollten Sie für die Referenzdaten verwenden?
Welchen Eingabetyp sollten Sie für die Referenzdaten verwenden?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über einen serverlosen SQL-Pool von Azure Synapse Analytics mit dem Namen „Pool1“ und ein Azure Data Lake Storage Gen2-Konto mit dem Namen „storage1“. Die Eigenschaft „AllowedBlobpublicAccess“ ist für storage1 deaktiviert.
Sie müssen eine externe Datenquelle erstellen, die von Azure Active Directory (Azure AD)-Benutzern verwendet werden kann, um über Pool1 auf Speicher1 zuzugreifen.
Was sollten Sie zuerst erstellen?
Sie müssen eine externe Datenquelle erstellen, die von Azure Active Directory (Azure AD)-Benutzern verwendet werden kann, um über Pool1 auf Speicher1 zuzugreifen.
Was sollten Sie zuerst erstellen?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über eine Azure Factory-Instanz mit dem Namen DF1, die eine Pipeline mit dem Namen PL1 enthält. PL1 enthält einen Auslöser für ein rollierendes Fenster.
Sie erstellen fünf Klone von PL1. Sie konfigurieren jede Klonpipeline so, dass sie eine andere Datenquelle verwendet.
Sie müssen sicherstellen, dass die Ausführungspläne der Klonpipeline mit dem Ausführungsplan von PL1 übereinstimmen.
Was sollte man tun?
Sie erstellen fünf Klone von PL1. Sie konfigurieren jede Klonpipeline so, dass sie eine andere Datenquelle verwendet.
Sie müssen sicherstellen, dass die Ausführungspläne der Klonpipeline mit dem Ausführungsplan von PL1 übereinstimmen.
Was sollte man tun?
정답: D
Sie verfügen über ein Azure Data Lake Storage Gen2-Konto, das eine JSON-Datei für Kunden enthält. Die Datei enthält zwei Attribute namens FirstName und LastName.
Sie müssen die Daten mithilfe von Azure Databricks aus der JSON-Datei in eine Azure Synapse Analytics-Tabelle kopieren.
Es muss eine neue Spalte erstellt werden, die die Werte „FirstName“ und „LastName“ verkettet.
Sie erstellen folgende Komponenten:
* Eine Zieltabelle in Azure Synapse
* Ein Azure Blob Storage-Container
* Ein Dienstleiter
In welcher Reihenfolge sollten Sie die Aktionen ausführen? Um zu antworten, verschieben Sie die entsprechenden Aktionen aus der Aktionsliste in den Antwortbereich und ordnen Sie sie in der richtigen Reihenfolge an.
Sie müssen die Daten mithilfe von Azure Databricks aus der JSON-Datei in eine Azure Synapse Analytics-Tabelle kopieren.
Es muss eine neue Spalte erstellt werden, die die Werte „FirstName“ und „LastName“ verkettet.
Sie erstellen folgende Komponenten:
* Eine Zieltabelle in Azure Synapse
* Ein Azure Blob Storage-Container
* Ein Dienstleiter
In welcher Reihenfolge sollten Sie die Aktionen ausführen? Um zu antworten, verschieben Sie die entsprechenden Aktionen aus der Aktionsliste in den Antwortbereich und ordnen Sie sie in der richtigen Reihenfolge an.
정답:
Explanation:
Step 1: Mount the Data Lake Storage onto DBFS
Begin with creating a file system in the Azure Data Lake Storage Gen2 account.
Step 2: Read the file into a data frame.
You can load the json files as a data frame in Azure Databricks.
Step 3: Perform transformations on the data frame.
Step 4: Specify a temporary folder to stage the data
Specify a temporary folder to use while moving data between Azure Databricks and Azure Synapse.
Step 5: Write the results to a table in Azure Synapse.
You upload the transformed data frame into Azure Synapse. You use the Azure Synapse connector for Azure Databricks to directly upload a dataframe as a table in a Azure Synapse.
Reference:
https://docs.microsoft.com/en-us/azure/azure-databricks/databricks-extract-load-sql-data-warehouse