최신 DP-203 Deutsch 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203 Deutsch Version)

Sie müssen eine Lösung erstellen, um sicherzustellen, dass Benutzer bestimmte Dateien in einem Azure Data Lake Storage Gen2-Konto aus einem serverlosen SQL-Pool von Azure Synapse Analytics abfragen können.
Welche drei Aktionen sollten Sie nacheinander ausführen? Um zu antworten, verschieben Sie die entsprechenden Aktionen aus der Aktionsliste in den Antwortbereich und ordnen Sie sie in der richtigen Reihenfolge an.
HINWEIS: Mehr als eine Reihenfolge der Antwortmöglichkeiten ist richtig. Sie erhalten eine Gutschrift für jede der korrekten Bestellungen, die Sie auswählen.
정답:

Explanation:

Step 1: Create an external data source
You can create external tables in Synapse SQL pools via the following steps:
* CREATE EXTERNAL DATA SOURCE to reference an external Azure storage and specify the credential that should be used to access the storage.
* CREATE EXTERNAL FILE FORMAT to describe format of CSV or Parquet files.
* CREATE EXTERNAL TABLE on top of the files placed on the data source with the same file format.
Step 2: Create an external file format object
Creating an external file format is a prerequisite for creating an external table.
Step 3: Create an external table
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql/develop-tables-external-tables
Was sollten Sie tun, um die Hochverfügbarkeit der Echtzeit-Datenverarbeitungslösung zu verbessern?

정답: C
Sie verfügen über eine Tabelle in einem dedizierten SQL-Pool von Azure Synapse Analytics. Die Tabelle wurde mit der folgenden Transact-SQL-Anweisung erstellt.

Sie müssen die Tabelle ändern, um die folgenden Anforderungen zu erfüllen:
* Stellen Sie sicher, dass Benutzer den aktuellen Manager der Mitarbeiter identifizieren können.
* Unterstützen Sie die Erstellung einer Mitarbeiterberichtshierarchie für Ihr gesamtes Unternehmen.
* Bieten Sie eine schnelle Suche nach Managerattributen wie Name und Berufsbezeichnung.
Welche Spalte sollten Sie der Tabelle hinzufügen?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die das gleiche Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie verfügen über ein Azure Data Lake Storage-Konto, das eine Stagingzone enthält.
Sie müssen einen täglichen Prozess entwerfen, um inkrementelle Daten aus der Stagingzone aufzunehmen, die Daten durch Ausführen eines R-Skripts zu transformieren und die transformierten Daten dann in ein Data Warehouse in Azure Synapse Analytics einzufügen.
Lösung: Sie verwenden einen Azure Data Factory-Zeitplantrigger, um eine Pipeline auszuführen, die einen Zuordnungsdatenfluss ausführt und die Daten dann in das Data Warehouse einfügt.
Erfüllt dies das Ziel?

정답: A
Sie implementieren eine Azure Stream Analytics-Lösung zur Verarbeitung von Ereignisdaten von Geräten.
Die Geräte geben im Fehlerfall Ereignisse aus und wiederholen das Ereignis alle fünf Sekunden, bis der Fehler behoben ist. Die Geräte geben alle fünf Sekunden nach einem vorherigen Ereignis ein Heartbeat-Ereignis aus, wenn keine Fehler vorliegen.
Ein Beispiel der Ereignisse ist in der folgenden Tabelle aufgeführt.

Sie müssen die Betriebszeit zwischen den Fehlern berechnen.
Wie sollten Sie die Stream Analytics SQL-Abfrage abschließen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:

Box 1: WHERE EventType='HeartBeat'
Box 2: ,TumblingWindow(Second, 5)
Tumbling windows are a series of fixed-sized, non-overlapping and contiguous time intervals.
The following diagram illustrates a stream with a series of events and how they are mapped into 10-second tumbling windows.

Reference:
https://docs.microsoft.com/en-us/stream-analytics-query/session-window-azure-stream-analytics
https://docs.microsoft.com/en-us/stream-analytics-query/tumbling-window-azure-stream-analytics
Sie verfügen über ein Azure Data Lake Storage-Konto, für das ein virtueller Netzwerkdienstendpunkt konfiguriert ist.
Sie planen, Azure Data Factory zum Extrahieren von Daten aus dem Data Lake Storage-Konto zu verwenden. Die Daten werden dann mithilfe von PolyBase in ein Data Warehouse in Azure Synapse Analytics geladen.
Welche Authentifizierungsmethode sollten Sie für den Zugriff auf Data Lake Storage verwenden?

정답: C
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über eine Azure Data Factory-Pipeline mit dem Namen „pipeline1“, die eine Kopieraktivität mit dem Namen „Copy1“ enthält. Copy1 hat die folgenden Konfigurationen:
* Die Quelle von Copy1 ist eine Tabelle in einer lokalen Microsoft SQL Server-Instanz, auf die über einen verknüpften Dienst zugegriffen wird, der über eine selbstgehostete Integration Runtime verbunden ist.
* Die Senke von Copy1 verwendet eine Tabelle in einer Azure SQL-Datenbank, auf die über einen verknüpften Dienst zugegriffen wird, der über eine Azure Integration Runtime verbunden ist.
Sie müssen die Menge der für Copy1 verfügbaren Rechenressourcen maximieren. Die Lösung muss den Verwaltungsaufwand minimieren.
Was sollte man tun?

정답: B
Sie verfügen über einen dedizierten SQL-Pod für Azure Synapse Analytics.
Sie müssen eine Pipeline erstellen, die eine gespeicherte Prozedur im dedizierten SQL-Pool ausführt und die zurückgegebene Ergebnismenge als Eingabe (oder als nachgelagerte Aktivität) verwendet. Die Lösung muss den Entwicklungsaufwand minimieren.
Welche Art von Aktivität sollten Sie in der Pipeline verwenden?

정답: B
Sie entwerfen eine Lösung, die in einem Azure Blob Storage-Konto gespeicherte Parquet-Dateien in ein Azure Data Lake Storage Gen2-Konto kopiert.
Die Daten werden täglich in den Data Lake geladen und verwenden eine Ordnerstruktur von {Jahr}/{Monat}/{Tag}/.
Sie müssen eine tägliche Azure Data Factory-Datenlast entwerfen, um die Datenübertragung zwischen den beiden Konten zu minimieren.
Welche zwei Konfigurationen sollten Sie in das Design einbeziehen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.

정답: C,D
설명: (DumpTOP 회원만 볼 수 있음)
Sie verarbeiten Streaming-Daten von Fahrzeugen, die eine Mautstelle passieren.
Sie müssen Azure Stream Analytics verwenden, um das Nummernschild, die Fahrzeugmarke und die Stunde zurückzugeben, zu der das letzte Fahrzeug in jedem 10-Minuten-Fenster gefahren ist.
Wie sollten Sie die Abfrage abschließen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:


Box 1: MAX
The first step on the query finds the maximum time stamp in 10-minute windows, that is the time stamp of the last event for that window. The second step joins the results of the first query with the original stream to find the event that match the last time stamps in each window.
Query:
WITH LastInWindow AS
(
SELECT
MAX(Time) AS LastEventTime
FROM
Input TIMESTAMP BY Time
GROUP BY
TumblingWindow(minute, 10)
)
SELECT
Input.License_plate,
Input.Make,
Input.Time
FROM
Input TIMESTAMP BY Time
INNER JOIN LastInWindow
ON DATEDIFF(minute, Input, LastInWindow) BETWEEN 0 AND 10
AND Input.Time = LastInWindow.LastEventTime
Box 2: TumblingWindow
Tumbling windows are a series of fixed-sized, non-overlapping and contiguous time intervals.
Box 3: DATEDIFF
DATEDIFF is a date-specific function that compares and returns the time difference between two DateTime fields, for more information, refer to date functions.
Reference:
https://docs.microsoft.com/en-us/stream-analytics-query/tumbling-window-azure-stream-analytics
Sie planen den Einsatz von Azure Data Lake Storage Gen2.
Sie verfügen über die folgenden zwei Berichte, die auf den Data Lake zugreifen:
* Report1: Liest drei Spalten aus einer Datei, die 50 Spalten enthält.
* Report2: Fragt einen einzelnen Datensatz basierend auf einem Zeitstempel ab.
Sie müssen empfehlen, in welchem ​​Format die Daten im Data Lake gespeichert werden sollen, um die Berichte zu unterstützen. Die Lösung muss die Lesezeiten minimieren.
Was sollten Sie für jeden Bericht empfehlen? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:

Report1: CSV
CSV: The destination writes records as delimited data.
Report2: AVRO
AVRO supports timestamps.
Not Parquet, TSV: Not options for Azure Data Lake Storage Gen2.
Reference:
https://streamsets.com/documentation/datacollector/latest/help/datacollector/UserGuide/Destinations/ADLS- G2-D.html
Sie verfügen über einen Azure Event Hub mit dem Namen „retailhub“, der über 16 Partitionen verfügt. Transaktionen werden im Retailhub veröffentlicht.
Zu jeder Transaktion gehören die Transaktions-ID, die einzelnen Posten und die Zahlungsdetails. Als Partitionsschlüssel wird die Transaktions-ID verwendet.
Sie entwerfen einen Azure Stream Analytics-Auftrag, um potenziell betrügerische Transaktionen in einem Einzelhandelsgeschäft zu identifizieren. Der Job verwendet Retailhub als Eingabe. Der Job gibt die Transaktions-ID, die einzelnen Posten, die Zahlungsdetails, einen Betrugsscore und einen Betrugsindikator aus.
Sie planen, die Ausgabe an einen Azure Event Hub mit dem Namen Fraudhub zu senden.
Sie müssen sicherstellen, dass die Betrugserkennungslösung hoch skalierbar ist und Transaktionen so schnell wie möglich verarbeitet.
Wie sollten Sie die Ausgabe des Stream Analytics-Auftrags strukturieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:

Box 1: 16
For Event Hubs you need to set the partition key explicitly.
An embarrassingly parallel job is the most scalable scenario in Azure Stream Analytics. It connects one partition of the input to one instance of the query to one partition of the output.
Box 2: Transaction ID
Reference:
https://docs.microsoft.com/en-us/azure/event-hubs/event-hubs-features#partitions
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die dasselbe Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erreichen könnte. Für einige Fragensätze gibt es möglicherweise mehr als eine richtige Lösung, während für andere möglicherweise keine richtige Lösung vorhanden ist.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr darauf zurückkommen. Daher werden diese Fragen nicht im Überprüfungsbildschirm angezeigt.
Sie entwerfen eine Azure Stream Analytics-Lösung, die Twitter-Daten analysiert.
Sie müssen die Tweets in jedem 10-Sekunden-Fenster zählen. Die Lösung muss sicherstellen, dass jeder Tweet nur einmal gezählt wird.
Lösung: Sie verwenden ein rollierendes Fenster und stellen die Fenstergröße auf 10 Sekunden ein.
Erfüllt dies das Ziel?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool mit dem Namen Pool1.
Schwimmbad! enthält zwei Tabellen mit den Namen SalesFact_Stagmg und SalesFact. Beide Tabellen verfügen über eine entsprechende Anzahl an Partitionen, die alle Daten enthalten.
Sie müssen Daten von SalesFact_Staging nach SalesFact laden, indem Sie eine Partition wechseln.
Was sollten Sie beim Ausführen der alter TABLE-Anweisung angeben?

정답: C
Sie entwerfen eine Finanztransaktionstabelle in einem dedizierten Azure Synapse Analytics-SQL-Pool. Die Tabelle verfügt über einen gruppierten Columnstore-Index und enthält die folgenden Spalten:
* TransactionType: 40 Millionen Zeilen pro Transaktionstyp
* Kundensegment: 4 Millionen pro Kundensegment
* TransactionMonth: 65 Millionen Zeilen pro Monat
* Kontotyp: 500 Millionen pro Kontotyp
Sie haben die folgenden Abfrageanforderungen:
* Analysten analysieren am häufigsten Transaktionen für einen bestimmten Monat.
* Bei der Transaktionsanalyse werden Transaktionen in der Regel nach Transaktionstyp, Kundensegment und/oder Kontotyp zusammengefasst. Sie müssen eine Partitionsstrategie für die Tabelle empfehlen, um die Abfragezeiten zu minimieren.
Auf welche Spalte sollten Sie die Partitionierung der Tabelle empfehlen?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über einen serverlosen Azure Synapse Analytics-SQL-Pool, einen dedizierten Azure Synapse Analytics-SQL-Pool, einen Apache Spark-Pool und ein Azure Data Lake Storage Gen2-Konto.
Sie müssen eine Tabelle in einer Lake-Datenbank erstellen. Die Tabelle muss sowohl für den serverlosen SQL-Pool als auch für den Spark-Pool verfügbar sein.
Wo sollten Sie die Tabelle erstellen und welches Dateiformat sollten Sie für die Daten in der Tabelle verwenden? Um zu antworten, wählen Sie die entsprechenden Optionen im Antwortbereich aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:

Explanation:
The dedicated SQL pool
Apache Parquet
Sie verfügen über ein Data Warehouse in Azure Synapse Analytics.
Sie müssen sicherstellen, dass die Daten im Data Warehouse im Ruhezustand verschlüsselt sind.
Was sollten Sie aktivieren?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Sie entwerfen eine Ordnerstruktur für die Dateien in einem Azure Data Lake Storage Gen2-Konto. Das Konto verfügt über einen Container, der Daten aus drei Jahren enthält.
Sie müssen eine Ordnerstruktur empfehlen, die die folgenden Anforderungen erfüllt:
* Unterstützt die Partitionseliminierung für Abfragen durch serverloses SQL-Pooh von Azure Synapse Analytics
* Unterstützt den schnellen Datenabruf für Daten aus dem aktuellen Monat
* Vereinfacht die Datensicherheitsverwaltung durch die einzelnen Abteilungen
Welche Ordnerstruktur empfehlen Sie?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Sie entwerfen einen Data Mart für die Personalabteilung (MR) Ihres Unternehmens. Der Data Mart enthält Informationen und Mitarbeitertransaktionen. Aus einem Quellsystem haben Sie einen flachen Extrakt mit den folgenden Feldern:
* Angestellten ID
* Vorname
* Familienname, Nachname
* Empfänger
* GrossArnount
* Transaktions-ID
* Regierungsausweis
* NetAmountPaid
* Transaktionsdatum
Sie müssen ein Startschema-Datenmodell in einem dedizierten Azure Synapse Analytics-SQL-Pool für den Data Mart entwerfen.
Welche zwei Tabellen sollten Sie erstellen? Jede richtige Antwort stellt einen Teil der Lösung dar.

정답: B,E
설명: (DumpTOP 회원만 볼 수 있음)

우리와 연락하기

문의할 점이 있으시면 메일을 보내오세요. 12시간이내에 답장드리도록 하고 있습니다.

근무시간: ( UTC+9 ) 9:00-24:00
월요일~토요일

서포트: 바로 연락하기