최신 DP-203 Korean 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203 Korean Version)
Azure Synapse Analytics 전용 SQL 풀이 포함된 Azure 구독이 있습니다.
병렬 쿼리의 단일 분포가 다른 분포보다 더 오래 걸리는지 확인해야 합니다.
병렬 쿼리의 단일 분포가 다른 분포보다 더 오래 걸리는지 확인해야 합니다.
정답: C
Azure Event Hub에서 스트리밍 데이터를 처리하고 데이터를 Azure Data Lake Storage로 출력하는 솔루션을 설계해야 합니다. 솔루션은 분석가가 스트리밍 데이터를 대화형으로 쿼리할 수 있도록 보장해야 합니다.
무엇을 사용해야 합니까?
무엇을 사용해야 합니까?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
큰 팩트 테이블이 포함된 Azure Synapse Analytics 전용 SQL 풀이 있습니다. 이 테이블은 50개의 열과 50억 개의 행을 포함하며 힙입니다.
테이블에 대한 대부분의 쿼리는 약 1억 행의 값을 집계하고 두 개의 열만 반환합니다.
팩트 테이블에 대한 쿼리가 매우 느리다는 것을 발견했습니다.
가장 빠른 쿼리 시간을 제공하려면 어떤 유형의 인덱스를 추가해야 합니까?
테이블에 대한 대부분의 쿼리는 약 1억 행의 값을 집계하고 두 개의 열만 반환합니다.
팩트 테이블에 대한 쿼리가 매우 느리다는 것을 발견했습니다.
가장 빠른 쿼리 시간을 제공하려면 어떤 유형의 인덱스를 추가해야 합니까?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Azure Synapse에 SQL 풀이 있습니다.
Azure Blob 저장소에서 준비 테이블로 데이터를 로드할 계획입니다. 매일 약 100만 행의 데이터가 로드됩니다. 각 일일 로드 전에 테이블이 잘립니다.
준비 테이블을 만들어야 합니다. 솔루션은 준비 테이블에 데이터를 로드하는 데 걸리는 시간을 최소화해야 합니다.
테이블을 어떻게 구성해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_303_20250121.jpg)
Azure Blob 저장소에서 준비 테이블로 데이터를 로드할 계획입니다. 매일 약 100만 행의 데이터가 로드됩니다. 각 일일 로드 전에 테이블이 잘립니다.
준비 테이블을 만들어야 합니다. 솔루션은 준비 테이블에 데이터를 로드하는 데 걸리는 시간을 최소화해야 합니다.
테이블을 어떻게 구성해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_303_20250121.jpg)
정답:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_304_20250121.jpg)
Explanation:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_306_20250121.jpg)
Box 1: Hash
Hash-distributed tables improve query performance on large fact tables. They can have very large numbers of rows and still achieve high performance.
Box 2: Clustered columnstore
When creating partitions on clustered columnstore tables, it is important to consider how many rows belong to each partition. For optimal compression and performance of clustered columnstore tables, a minimum of 1 million rows per distribution and partition is needed.
Box 3: Date
Table partitions enable you to divide your data into smaller groups of data. In most cases, table partitions are created on a date column.
Partition switching can be used to quickly remove or replace a section of a table.
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse-tables- partition
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql-data-warehouse/sql-data-warehouse-tables- distribute
Pool1이라는 Azure Synapse Analytics 전용 SQL 풀과 DB1이라는 데이터베이스가 있습니다. DB1에는 Table1이라는 팩트 테이블이 있습니다.
Table1에서 데이터 왜곡의 범위를 식별해야 합니다.
Synapse Studio에서 무엇을 해야 합니까?
Table1에서 데이터 왜곡의 범위를 식별해야 합니다.
Synapse Studio에서 무엇을 해야 합니까?
정답: C
설명: (DumpTOP 회원만 볼 수 있음)
Azure AD(Azure Active Directory) 통합을 사용하여 Azure Data Lake Storage Gen2에 자동으로 연결하는 Azure Databricks 클러스터를 구현해야 합니다.
새 클러스터를 어떻게 구성해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_719_20250121.jpg)
새 클러스터를 어떻게 구성해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_719_20250121.jpg)
정답:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_721_20250121.jpg)
Explanation:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_722_20250121.jpg)
Box 1: High Concurrency
Enable Azure Data Lake Storage credential passthrough for a high-concurrency cluster.
Incorrect:
Support for Azure Data Lake Storage credential passthrough on standard clusters is in Public Preview.
Standard clusters with credential passthrough are supported on Databricks Runtime 5.5 and above and are limited to a single user.
Box 2: Azure Data Lake Storage Gen1 Credential Passthrough
You can authenticate automatically to Azure Data Lake Storage Gen1 and Azure Data Lake Storage Gen2 from Azure Databricks clusters using the same Azure Active Directory (Azure AD) identity that you use to log into Azure Databricks. When you enable your cluster for Azure Data Lake Storage credential passthrough, commands that you run on that cluster can read and write data in Azure Data Lake Storage without requiring you to configure service principal credentials for access to storage.
References:
https://docs.azuredatabricks.net/spark/latest/data-sources/azure/adls-passthrough.html
웹 사이트 분석 시스템에서 다운로드, 링크 클릭, 양식 제출 및 비디오 재생과 같은 사용자 상호 작용에 대한 데이터 추출을 받습니다.
데이터에는 다음 열이 포함됩니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_60_20250121.jpg)
데이터의 분석 쿼리를 지원하려면 스타 스키마를 디자인해야 합니다. 스타 스키마에는 날짜 차원을 포함하여 4개의 테이블이 포함됩니다.
각 열을 어떤 테이블에 추가해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_61_20250121.jpg)
데이터에는 다음 열이 포함됩니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_60_20250121.jpg)
데이터의 분석 쿼리를 지원하려면 스타 스키마를 디자인해야 합니다. 스타 스키마에는 날짜 차원을 포함하여 4개의 테이블이 포함됩니다.
각 열을 어떤 테이블에 추가해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_61_20250121.jpg)
정답:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_63_20250121.jpg)
Explanation:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_64_20250121.jpg)
Box 1: DimEvent
Box 2: DimChannel
Box 3: FactEvents
Fact tables store observations or events, and can be sales orders, stock balances, exchange rates, temperatures, etc Reference:
https://docs.microsoft.com/en-us/power-bi/guidance/star-schema
가상 네트워크 서비스 엔드포인트가 구성된 Azure Data Lake Storage 계정이 있습니다.
Azure Data Factory를 사용하여 Data Lake Storage 계정에서 데이터를 추출할 계획입니다. 그러면 데이터가 PolyBase를 사용하여 Azure Synapse Analytics의 데이터 웨어하우스에 로드됩니다.
Data Lake Storage에 액세스하려면 어떤 인증 방법을 사용해야 합니까?
Azure Data Factory를 사용하여 Data Lake Storage 계정에서 데이터를 추출할 계획입니다. 그러면 데이터가 PolyBase를 사용하여 Azure Synapse Analytics의 데이터 웨어하우스에 로드됩니다.
Data Lake Storage에 액세스하려면 어떤 인증 방법을 사용해야 합니까?
정답: D
설명: (DumpTOP 회원만 볼 수 있음)
민감한 고객 연락처 정보를 보호하기 위해 무엇을 사용하는 것이 좋습니까?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Azure Synapse Analytics 계정이 포함된 Azure 구독이 있습니다. 이 계정은 Repo1이라는 Azure Repos 리포지토리와 통합되어 있으며 Pipeline1이라는 파이프라인을 포함합니다. Repo1에는 다음 표에 표시된 분기가 포함되어 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_127_20250121.jpg)
featureddev에서 Pipeline1에 대한 변경 사항을 개발하고 테스트합니다. 변경 사항을 게시해야 합니다. 먼저 무엇을 해야 합니까?
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_127_20250121.jpg)
featureddev에서 Pipeline1에 대한 변경 사항을 개발하고 테스트합니다. 변경 사항을 게시해야 합니다. 먼저 무엇을 해야 합니까?
정답: C
참고: 이 질문은 동일한 시나리오를 제시하는 일련의 질문 중 일부입니다. 시리즈의 각 질문에는 명시된 목표를 충족할 수 있는 고유한 솔루션이 포함되어 있습니다. 일부 질문 세트에는 하나 이상의 올바른 솔루션이 있을 수 있지만 다른 질문 세트에는 올바른 솔루션이 없을 수 있습니다.
이 섹션의 질문에 답한 후에는 해당 질문으로 돌아갈 수 없습니다. 결과적으로 이러한 질문은 검토 화면에 나타나지 않습니다.
계층 구조가 있는 Azure Databricks 작업 영역을 만들 계획입니다. 작업 영역에는 다음 세 가지 워크로드가 포함됩니다.
Python 및 SQL을 사용할 데이터 엔지니어를 위한 워크로드입니다.
Python, Scala 및 SOL을 사용하는 노트북을 실행할 작업에 대한 워크로드입니다.
데이터 과학자가 Scala 및 R에서 임시 분석을 수행하는 데 사용할 워크로드입니다.
회사의 엔터프라이즈 아키텍처 팀은 Databricks 환경에 대해 다음 표준을 식별합니다.
데이터 엔지니어는 클러스터를 공유해야 합니다.
작업 클러스터는 데이터 과학자와 데이터 엔지니어가 클러스터에 배포할 패키지 노트북을 제공하는 요청 프로세스를 사용하여 관리됩니다.
모든 데이터 과학자에게는 120분 동안 활동이 없으면 자동으로 종료되는 자체 클러스터가 할당되어야 합니다. 현재 세 명의 데이터 과학자가 있습니다.
워크로드에 대한 Databricks 클러스터를 만들어야 합니다.
솔루션: 각 데이터 과학자를 위한 표준 클러스터, 데이터 엔지니어를 위한 높은 동시성 클러스터 및 작업을 위한 높은 동시성 클러스터를 만듭니다.
이것이 목표를 달성합니까?
이 섹션의 질문에 답한 후에는 해당 질문으로 돌아갈 수 없습니다. 결과적으로 이러한 질문은 검토 화면에 나타나지 않습니다.
계층 구조가 있는 Azure Databricks 작업 영역을 만들 계획입니다. 작업 영역에는 다음 세 가지 워크로드가 포함됩니다.
Python 및 SQL을 사용할 데이터 엔지니어를 위한 워크로드입니다.
Python, Scala 및 SOL을 사용하는 노트북을 실행할 작업에 대한 워크로드입니다.
데이터 과학자가 Scala 및 R에서 임시 분석을 수행하는 데 사용할 워크로드입니다.
회사의 엔터프라이즈 아키텍처 팀은 Databricks 환경에 대해 다음 표준을 식별합니다.
데이터 엔지니어는 클러스터를 공유해야 합니다.
작업 클러스터는 데이터 과학자와 데이터 엔지니어가 클러스터에 배포할 패키지 노트북을 제공하는 요청 프로세스를 사용하여 관리됩니다.
모든 데이터 과학자에게는 120분 동안 활동이 없으면 자동으로 종료되는 자체 클러스터가 할당되어야 합니다. 현재 세 명의 데이터 과학자가 있습니다.
워크로드에 대한 Databricks 클러스터를 만들어야 합니다.
솔루션: 각 데이터 과학자를 위한 표준 클러스터, 데이터 엔지니어를 위한 높은 동시성 클러스터 및 작업을 위한 높은 동시성 클러스터를 만듭니다.
이것이 목표를 달성합니까?
정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Pool1이라는 Azure Synapse Analytics 전용 SQL 풀이 있습니다.
수영장! SalesFact_Stagmg 및 SalesFact라는 두 개의 테이블이 포함되어 있습니다. 두 테이블 모두 일치하는 수의 파티션을 가지며 모두 데이터를 포함합니다.
파티션을 전환하여 SalesFact_Staging에서 SalesFact로 데이터를 로드해야 합니다.
alter TABLE 문을 실행할 때 무엇을 지정해야 합니까?
수영장! SalesFact_Stagmg 및 SalesFact라는 두 개의 테이블이 포함되어 있습니다. 두 테이블 모두 일치하는 수의 파티션을 가지며 모두 데이터를 포함합니다.
파티션을 전환하여 SalesFact_Staging에서 SalesFact로 데이터를 로드해야 합니다.
alter TABLE 문을 실행할 때 무엇을 지정해야 합니까?
정답: B
Azure Databricks에서 PySpark를 사용하여 다음 JSON 입력을 구문 분석합니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_696_20250121.jpg)
다음 표 형식으로 데이터를 출력해야 합니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_697_20250121.jpg)
PySpark 코드를 어떻게 완성해야 합니까? 응답하려면 적절한 값을 올바른 대상으로 드래그하십시오. 각 값은 한 번, 두 번 이상 사용되거나 전혀 사용되지 않을 수 있습니다. 콘텐츠를 보려면 창 사이의 분할 막대를 끌거나 스크롤해야 할 수 있습니다.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_699_20250121.jpg)
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_696_20250121.jpg)
다음 표 형식으로 데이터를 출력해야 합니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_697_20250121.jpg)
PySpark 코드를 어떻게 완성해야 합니까? 응답하려면 적절한 값을 올바른 대상으로 드래그하십시오. 각 값은 한 번, 두 번 이상 사용되거나 전혀 사용되지 않을 수 있습니다. 콘텐츠를 보려면 창 사이의 분할 막대를 끌거나 스크롤해야 할 수 있습니다.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_699_20250121.jpg)
정답:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_700_20250121.jpg)
Explanation:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_701_20250121.jpg)
Box 1: select
Box 2: explode
Bop 3: alias
pyspark.sql.Column.alias returns this column aliased with a new name or names (in the case of expressions that return more than one column, such as explode).
Reference:
https://spark.apache.org/docs/latest/api/python/reference/api/pyspark.sql.Column.alias.html
https://docs.microsoft.com/en-us/azure/databricks/sql/language-manual/functions/explode
다음 표에 표시된 사용자를 포함하는 Azure Synapse Analytics 전용 SQL 풀이 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_795_20250121.jpg)
User1은 데이터베이스에서 쿼리를 실행하고 쿼리는 다음 그림에 표시된 결과를 반환합니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_796_20250121.jpg)
User1은 마스킹되지 않은 데이터에 액세스할 수 있는 유일한 사용자입니다.
드롭다운 메뉴를 사용하여 그래픽에 제시된 정보를 기반으로 각 문장을 완성하는 답을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_798_20250121.jpg)
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_795_20250121.jpg)
User1은 데이터베이스에서 쿼리를 실행하고 쿼리는 다음 그림에 표시된 결과를 반환합니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_796_20250121.jpg)
User1은 마스킹되지 않은 데이터에 액세스할 수 있는 유일한 사용자입니다.
드롭다운 메뉴를 사용하여 그래픽에 제시된 정보를 기반으로 각 문장을 완성하는 답을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_798_20250121.jpg)
정답:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_799_20250121.jpg)
Explanation:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_801_20250121.jpg)
Box 1: 0
The YearlyIncome column is of the money data type.
The Default masking function: Full masking according to the data types of the designated fields Use a zero value for numeric data types (bigint, bit, decimal, int, money, numeric, smallint, smallmoney, tinyint, float, real).
Box 2: the values stored in the database
Users with administrator privileges are always excluded from masking, and see the original data without any mask.
Reference:
https://docs.microsoft.com/en-us/azure/azure-sql/database/dynamic-data-masking-overview
참고: 이 질문은 동일한 시나리오를 제시하는 일련의 질문 중 일부입니다. 시리즈의 각 질문에는 명시된 목표를 충족할 수 있는 고유한 솔루션이 포함되어 있습니다. 일부 질문 세트에는 하나 이상의 올바른 솔루션이 있을 수 있지만 다른 질문 세트에는 올바른 솔루션이 없을 수 있습니다.
이 섹션의 질문에 답한 후에는 해당 질문으로 돌아갈 수 없습니다. 결과적으로 이러한 질문은 검토 화면에 나타나지 않습니다.
계층 구조가 있는 Azure Databricks 작업 영역을 만들 계획입니다. 작업 영역에는 다음 세 가지 워크로드가 포함됩니다.
Python 및 SQL을 사용할 데이터 엔지니어를 위한 워크로드입니다.
Python, Scala 및 SOL을 사용하는 노트북을 실행할 작업에 대한 워크로드입니다.
데이터 과학자가 Scala 및 R에서 임시 분석을 수행하는 데 사용할 워크로드입니다.
회사의 엔터프라이즈 아키텍처 팀은 Databricks 환경에 대해 다음 표준을 식별합니다.
데이터 엔지니어는 클러스터를 공유해야 합니다.
작업 클러스터는 데이터 과학자와 데이터 엔지니어가 클러스터에 배포할 패키지 노트북을 제공하는 요청 프로세스를 사용하여 관리됩니다.
모든 데이터 과학자에게는 120분 동안 활동이 없으면 자동으로 종료되는 자체 클러스터가 할당되어야 합니다. 현재 세 명의 데이터 과학자가 있습니다.
워크로드에 대한 Databricks 클러스터를 만들어야 합니다.
솔루션: 각 데이터 과학자를 위한 표준 클러스터, 데이터 엔지니어를 위한 높은 동시성 클러스터 및 작업을 위한 표준 클러스터를 만듭니다.
이것이 목표를 달성합니까?
이 섹션의 질문에 답한 후에는 해당 질문으로 돌아갈 수 없습니다. 결과적으로 이러한 질문은 검토 화면에 나타나지 않습니다.
계층 구조가 있는 Azure Databricks 작업 영역을 만들 계획입니다. 작업 영역에는 다음 세 가지 워크로드가 포함됩니다.
Python 및 SQL을 사용할 데이터 엔지니어를 위한 워크로드입니다.
Python, Scala 및 SOL을 사용하는 노트북을 실행할 작업에 대한 워크로드입니다.
데이터 과학자가 Scala 및 R에서 임시 분석을 수행하는 데 사용할 워크로드입니다.
회사의 엔터프라이즈 아키텍처 팀은 Databricks 환경에 대해 다음 표준을 식별합니다.
데이터 엔지니어는 클러스터를 공유해야 합니다.
작업 클러스터는 데이터 과학자와 데이터 엔지니어가 클러스터에 배포할 패키지 노트북을 제공하는 요청 프로세스를 사용하여 관리됩니다.
모든 데이터 과학자에게는 120분 동안 활동이 없으면 자동으로 종료되는 자체 클러스터가 할당되어야 합니다. 현재 세 명의 데이터 과학자가 있습니다.
워크로드에 대한 Databricks 클러스터를 만들어야 합니다.
솔루션: 각 데이터 과학자를 위한 표준 클러스터, 데이터 엔지니어를 위한 높은 동시성 클러스터 및 작업을 위한 표준 클러스터를 만듭니다.
이것이 목표를 달성합니까?
정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Azure IoT Hub에서 입력 데이터를 수신하고 결과를 Azure Blob Storage에 쓰는 Azure Analytics 쿼리를 작성하고 있습니다.
시간당 센서당 판독값의 차이를 계산해야 합니다.
쿼리를 어떻게 완료해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_494_20250121.jpg)
시간당 센서당 판독값의 차이를 계산해야 합니다.
쿼리를 어떻게 완료해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_494_20250121.jpg)
정답:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_495_20250121.jpg)
Explanation:
![](https://www.dumptop.com/uploads/imgs/DP-203-KR V20.65/img_496_20250121.jpg)
Box 1: LAG
The LAG analytic operator allows one to look up a "previous" event in an event stream, within certain constraints. It is very useful for computing the rate of growth of a variable, detecting when a variable crosses a threshold, or when a condition starts or stops being true.
Box 2: LIMIT DURATION
Example: Compute the rate of growth, per sensor:
SELECT sensorId,
growth = reading -
LAG(reading) OVER (PARTITION BY sensorId LIMIT DURATION(hour, 1))
FROM input
Reference:
https://docs.microsoft.com/en-us/stream-analytics-query/lag-azure-stream-analytics
Twitter 피드 데이터 레코드에 대한 데이터 보존 솔루션을 설계해야 합니다. 솔루션은 고객 감정 분석 요구 사항을 충족해야 합니다.
솔루션에 어떤 Azure Storage 기능을 포함해야 합니까?
솔루션에 어떤 Azure Storage 기능을 포함해야 합니까?
정답: D
설명: (DumpTOP 회원만 볼 수 있음)
Pool1이라는 Apache Spark 풀을 포함하는 WS1이라는 Azure Synapse Analytics 작업 영역이 있습니다.
Pool1에 D61이라는 데이터베이스를 만들 계획입니다.
DB1에서 테이블을 생성할 때 기본 제공 서버리스 SQL 포드에 대한 외부 테이블로 테이블을 자동으로 사용할 수 있는지 확인해야 합니다.
DB1의 테이블에 어떤 형식을 사용해야 합니까?
Pool1에 D61이라는 데이터베이스를 만들 계획입니다.
DB1에서 테이블을 생성할 때 기본 제공 서버리스 SQL 포드에 대한 외부 테이블로 테이블을 자동으로 사용할 수 있는지 확인해야 합니다.
DB1의 테이블에 어떤 형식을 사용해야 합니까?
정답: C
설명: (DumpTOP 회원만 볼 수 있음)
연락처라는 테이블이 포함된 Azure Synapse Analytics 전용 SQL 풀이 있습니다. 연락처에는 전화라는 열이 있습니다.
전화 열을 쿼리할 때 특정 역할의 사용자가 전화 번호의 마지막 4자리만 볼 수 있도록 해야 합니다.
솔루션에 무엇을 포함해야 합니까?
전화 열을 쿼리할 때 특정 역할의 사용자가 전화 번호의 마지막 4자리만 볼 수 있도록 해야 합니다.
솔루션에 무엇을 포함해야 합니까?
정답: D
설명: (DumpTOP 회원만 볼 수 있음)