최신 DP-203 Deutsch 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203 Deutsch Version)
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool.
Sie führen PDW_SHOWSPACEUSED(dbo,FactInternetSales'); und erhalten Sie die in der folgenden Tabelle gezeigten Ergebnisse.
Welche Aussage beschreibt die dbo,FactInternetSales-Tabelle genau?
Sie führen PDW_SHOWSPACEUSED(dbo,FactInternetSales'); und erhalten Sie die in der folgenden Tabelle gezeigten Ergebnisse.
Welche Aussage beschreibt die dbo,FactInternetSales-Tabelle genau?
정답: C
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über eine Azure Data Factory mit den in der folgenden Abbildung gezeigten Git-Repository-Einstellungen.
Verwenden Sie die Dropdown-Menüs, um die Antwort auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Antwort ist einen Punkt wert.
Verwenden Sie die Dropdown-Menüs, um die Antwort auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Antwort ist einen Punkt wert.
정답:
Explanation:
Sie verfügen über ein Azure-Abonnement, das ein Azure Blob Storage-Konto mit dem Namen „storage1“ und einen dedizierten Azure Synapse Analytics-SQL-Pool mit dem Namen „Pool1“ enthält.
Sie müssen Daten in Speicher1 speichern. Die Daten werden von Pool1 gelesen. Die Lösung muss folgende Anforderungen erfüllen:
* Aktivieren Sie Pool1, um Spalten und Zeilen zu überspringen, die in einer Abfrage nicht erforderlich sind.
* Spaltenstatistiken automatisch erstellen.
* Minimieren Sie die Dateigröße.
Welchen Dateityp sollten Sie verwenden?
Sie müssen Daten in Speicher1 speichern. Die Daten werden von Pool1 gelesen. Die Lösung muss folgende Anforderungen erfüllen:
* Aktivieren Sie Pool1, um Spalten und Zeilen zu überspringen, die in einer Abfrage nicht erforderlich sind.
* Spaltenstatistiken automatisch erstellen.
* Minimieren Sie die Dateigröße.
Welchen Dateityp sollten Sie verwenden?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über ein Azure-Abonnement, das eine Azure Cosmos DB-Datenbank enthält. Azure Synapse Link ist in der Datenbank implementiert. Sie konfigurieren ein Schema mit voller Genauigkeit für den Analysespeicher. Sie führen die folgenden Aktionen aus:
Wie viele Spalten wird der Analysespeicher enthalten?
Wie viele Spalten wird der Analysespeicher enthalten?
정답: D
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool mit dem Namen „Pool1“, der eine externe Tabelle mit dem Namen „Sales“ enthält. „Sales“ enthält Verkaufsdaten. Jede Zeile in „Verkäufe“ enthält Daten zu einem einzelnen Verkauf, einschließlich des Namens des Verkäufers.
Sie müssen Sicherheit auf Zeilenebene (RLS) implementieren. Die Lösung muss sicherstellen, dass die Verkäufer nur auf ihre jeweiligen Verkäufe zugreifen können.
Was sollte man tun? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie müssen Sicherheit auf Zeilenebene (RLS) implementieren. Die Lösung muss sicherstellen, dass die Verkäufer nur auf ihre jeweiligen Verkäufe zugreifen können.
Was sollte man tun? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Box 1: A security policy for sale
Here are the steps to create a security policy for Sales:
Create a user-defined function that returns the name of the current user:
CREATE FUNCTION dbo.GetCurrentUser()
RETURNS NVARCHAR(128)
AS
BEGIN
RETURN SUSER_SNAME();
END;
Create a security predicate function that filters the Sales table based on the current user:
CREATE FUNCTION dbo.SalesPredicate(@salesperson NVARCHAR(128))
RETURNS TABLE
WITH SCHEMABINDING
AS
RETURN SELECT 1 AS access_result
WHERE @salesperson = SalespersonName;
Create a security policy on the Sales table that uses the SalesPredicate function to filter the data:
CREATE SECURITY POLICY SalesFilter
ADD FILTER PREDICATE dbo.SalesPredicate(dbo.GetCurrentUser()) ON dbo.Sales WITH (STATE = ON); By creating a security policy for the Sales table, you ensure that each salesperson can only access their own sales data. The security policy uses a user-defined function to get the name of the current user and a security predicate function to filter the Sales table based on the current user.
Box 2: table-value function
to restrict row access by using row-level security, you need to create a table-valued function that returns a table of values that represent the rows that a user can access. You then use this function in a security policy that applies a predicate on the table.
Sie planen, einmal täglich eine Stapelverarbeitung in Azure Databricks durchzuführen.
Welche Art von Databricks-Cluster sollten Sie verwenden?
Welche Art von Databricks-Cluster sollten Sie verwenden?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool, der die in der folgenden Tabelle aufgeführten Benutzer enthält.
Benutzer1 führt eine Abfrage in der Datenbank aus und die Abfrage gibt die in der folgenden Abbildung gezeigten Ergebnisse zurück.
Benutzer1 ist der einzige Benutzer, der Zugriff auf die nicht maskierten Daten hat.
Verwenden Sie die Dropdown-Menüs, um die Antwortmöglichkeit auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Benutzer1 führt eine Abfrage in der Datenbank aus und die Abfrage gibt die in der folgenden Abbildung gezeigten Ergebnisse zurück.
Benutzer1 ist der einzige Benutzer, der Zugriff auf die nicht maskierten Daten hat.
Verwenden Sie die Dropdown-Menüs, um die Antwortmöglichkeit auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Box 1: 0
The YearlyIncome column is of the money data type.
The Default masking function: Full masking according to the data types of the designated fields Use a zero value for numeric data types (bigint, bit, decimal, int, money, numeric, smallint, smallmoney, tinyint, float, real).
Box 2: the values stored in the database
Users with administrator privileges are always excluded from masking, and see the original data without any mask.
Reference:
https://docs.microsoft.com/en-us/azure/azure-sql/database/dynamic-data-masking-overview
Sie haben einen Azure Stream Analytics-Auftrag.
Sie müssen sicherstellen, dass für den Job genügend Streaming-Einheiten bereitgestellt werden.
Sie konfigurieren die Überwachung der SU-%-Auslastungsmetrik.
Welche zwei zusätzlichen Kennzahlen sollten Sie überwachen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Sie müssen sicherstellen, dass für den Job genügend Streaming-Einheiten bereitgestellt werden.
Sie konfigurieren die Überwachung der SU-%-Auslastungsmetrik.
Welche zwei zusätzlichen Kennzahlen sollten Sie überwachen? Jede richtige Antwort stellt einen Teil der Lösung dar.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답: B,D
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über ein Azure-Abonnement, das die in der folgenden Tabelle aufgeführten Ressourcen enthält.
Das Konto „storage1“ enthält einen Container mit dem Namen „container1“. Der Container „container1“ enthält die folgenden Dateien.
Im integrierten serverlosen SQL-Pool führen Sie das folgende Skript aus
Wählen Sie für jede der folgenden Aussagen Ja aus, wenn die Aussage wahr ist. Andernfalls wählen Sie Nein. HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Das Konto „storage1“ enthält einen Container mit dem Namen „container1“. Der Container „container1“ enthält die folgenden Dateien.
Im integrierten serverlosen SQL-Pool führen Sie das folgende Skript aus
Wählen Sie für jede der folgenden Aussagen Ja aus, wenn die Aussage wahr ist. Andernfalls wählen Sie Nein. HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Sie erstellen ein Data Warehouse in einem dedizierten Azure Synapse Analytics-SQL-Pool.
Analysten schreiben eine komplexe SELECT-Abfrage, die mehrere JOIN- und CASE-Anweisungen enthält, um Daten für die Verwendung in Bestandsberichten umzuwandeln. Die Bestandsberichte verwenden je nach Bericht die Daten und zusätzliche WHERE-Parameter. Die Berichte werden einmal täglich erstellt.
Sie müssen eine Lösung implementieren, um den Datensatz für die Berichte verfügbar zu machen. Die Lösung muss die Abfragezeiten minimieren.
Was sollten Sie umsetzen?
Analysten schreiben eine komplexe SELECT-Abfrage, die mehrere JOIN- und CASE-Anweisungen enthält, um Daten für die Verwendung in Bestandsberichten umzuwandeln. Die Bestandsberichte verwenden je nach Bericht die Daten und zusätzliche WHERE-Parameter. Die Berichte werden einmal täglich erstellt.
Sie müssen eine Lösung implementieren, um den Datensatz für die Berichte verfügbar zu machen. Die Lösung muss die Abfragezeiten minimieren.
Was sollten Sie umsetzen?
정답: D
설명: (DumpTOP 회원만 볼 수 있음)
Sie verfügen über einen dedizierten Azure Synapse Analytics-SQL-Pool mit dem Namen „Pool1“, der eine Tabelle mit dem Namen „Sales“ enthält.
Bei Sales wird die Sicherheit auf Zeilenebene (RLS) angewendet. RLS verwendet den folgenden Prädikatfilter.
Einem Benutzer namens „SalesUser1“ wird die Rolle „db_datareader“ für Pool1 zugewiesen. Welche Zeilen in der Sales-Tabelle werden zurückgegeben, wenn SalesUser1 die Tabelle abfragt?
Bei Sales wird die Sicherheit auf Zeilenebene (RLS) angewendet. RLS verwendet den folgenden Prädikatfilter.
Einem Benutzer namens „SalesUser1“ wird die Rolle „db_datareader“ für Pool1 zugewiesen. Welche Zeilen in der Sales-Tabelle werden zurückgegeben, wenn SalesUser1 die Tabelle abfragt?
정답: A
Sie verfügen über eine Azure Synapse Analytics-Pipeline namens Pipeline1, die eine Datenflussaktivität namens Dataflow1 enthält.
Pipeline1 ruft Dateien von einem Azure Data Lake Storage Gen 2-Konto mit dem Namen „storage1“ ab.
Dataflow1 verwendet die Integration Runtime AutoResolveIntegrationRuntime, die mit einer Kernanzahl von 128 konfiguriert ist.
Sie müssen die Anzahl der von Dataflow1 verwendeten Kerne optimieren, um die Größe der Dateien in Speicher1 zu berücksichtigen.
Was sollten Sie konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
Pipeline1 ruft Dateien von einem Azure Data Lake Storage Gen 2-Konto mit dem Namen „storage1“ ab.
Dataflow1 verwendet die Integration Runtime AutoResolveIntegrationRuntime, die mit einer Kernanzahl von 128 konfiguriert ist.
Sie müssen die Anzahl der von Dataflow1 verwendeten Kerne optimieren, um die Größe der Dateien in Speicher1 zu berücksichtigen.
Was sollten Sie konfigurieren? Um zu antworten, wählen Sie im Antwortbereich die entsprechenden Optionen aus.
정답:
Explanation:
Box 1: A Get Metadata activity
Dynamically size data flow compute at runtime
The Core Count and Compute Type properties can be set dynamically to adjust to the size of your incoming source data at runtime. Use pipeline activities like Lookup or Get Metadata in order to find the size of the source dataset data. Then, use Add Dynamic Content in the Data Flow activity properties.
Box 2: Dynamic content
Reference: https://docs.microsoft.com/en-us/azure/data-factory/control-flow-execute-data-flow-activity
Sie haben ein Azure Blob-Speicherkonto mit dem Namen „Speicher!“ und einen serverlosen Azure Synapse Analytics-SQL-Pool mit dem Namen „Pool!“ Von Pool1 aus möchten Sie Ad-hoc-Abfragen ausführen, die auf Speicher abzielen.
Sie müssen sicherstellen, dass Sie die Shared Access Signature (SAS)-Autorisierung verwenden können, ohne eine Datenquelle zu definieren. Was sollten Sie zuerst erstellen?
Sie müssen sicherstellen, dass Sie die Shared Access Signature (SAS)-Autorisierung verwenden können, ohne eine Datenquelle zu definieren. Was sollten Sie zuerst erstellen?
정답: B
Sie verfügen über ein Azure Data Lake Storage Gen2-Konto, das einen Container mit dem Namen „container1“ enthält. Sie verfügen über einen serverlosen SQL-Pool von Azure Synapse Analytics, der eine native externe Tabelle mit dem Namen dbo.Table1 enthält. Die Quelldaten für dbo.Table1 werden in Container1 gespeichert. Die Ordnerstruktur von Container1 wird in der folgenden Abbildung dargestellt.
Die externe Datenquelle wird mithilfe der folgenden Anweisung definiert.
Wählen Sie für jede der folgenden Aussagen Ja aus, wenn die Aussage wahr ist. Andernfalls wählen Sie Nein.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
Die externe Datenquelle wird mithilfe der folgenden Anweisung definiert.
Wählen Sie für jede der folgenden Aussagen Ja aus, wenn die Aussage wahr ist. Andernfalls wählen Sie Nein.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
정답:
Explanation:
Box 1: Yes
In the serverless SQL pool you can also use recursive wildcards /logs/** to reference Parquet or CSV files in any sub-folder beneath the referenced folder.
Box 2: Yes
Box 3: No
Reference: https://learn.microsoft.com/en-us/azure/synapse-analytics/sql/develop-tables-external-tables