최신 DP-203 Korean 무료덤프 - Microsoft Data Engineering on Microsoft Azure (DP-203 Korean Version)

매일 한 번 Azure Databricks에서 일괄 처리를 수행할 계획입니다.
어떤 유형의 Databricks 클러스터를 사용해야 하나요?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Azure Data Factory 파이프라인에 활동이 있습니다. 활동은 Azure Synapse Analytics의 데이터 웨어하우스에서 저장 프로시저를 호출하고 매일 실행됩니다.
활동이 마지막으로 실행된 시간을 확인해야 합니다.
무엇을 사용해야 합니까?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
Azure Data Lake Storage Gen 2를 사용하는 애플리케이션을 개발하고 있습니다.
제한된 기간 동안 특정 애플리케이션에 권한을 부여하는 솔루션을 권장해야 합니다.
추천서에 무엇을 포함해야 합니까?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Azure Databricks에서 구조화된 스트리밍 솔루션을 빌드할 계획입니다. 솔루션은 5분 간격으로 새 이벤트를 계산하고 해당 간격 동안 도착하는 이벤트만 보고합니다. 출력은 Delta Lake 테이블로 전송됩니다.
어떤 출력 모드를 사용해야 합니까?

정답: B
설명: (DumpTOP 회원만 볼 수 있음)
고객용 JSON 파일이 포함된 Azure Data Lake Storage Gen2 계정이 있습니다. 파일에는 FirstName 및 LastName이라는 두 가지 특성이 포함되어 있습니다.
Azure Databricks를 사용하여 JSON 파일에서 Azure Synapse Analytics 테이블로 데이터를 복사해야 합니다. FirstName 및 LastName 값을 연결하는 새 열을 만들어야 합니다.
다음 구성 요소를 생성합니다.
Azure Synapse의 대상 테이블
Azure Blob 스토리지 컨테이너
서비스 주체
어떤 순서로 작업을 수행해야 합니까? 응답하려면 작업 목록에서 해당 작업을 응답 영역으로 이동하고 올바른 순서로 정렬하십시오.
정답:

Explanation:

Step 1: Mount the Data Lake Storage onto DBFS
Begin with creating a file system in the Azure Data Lake Storage Gen2 account.
Step 2: Read the file into a data frame.
You can load the json files as a data frame in Azure Databricks.
Step 3: Perform transformations on the data frame.
Step 4: Specify a temporary folder to stage the data
Specify a temporary folder to use while moving data between Azure Databricks and Azure Synapse.
Step 5: Write the results to a table in Azure Synapse.
You upload the transformed data frame into Azure Synapse. You use the Azure Synapse connector for Azure Databricks to directly upload a dataframe as a table in a Azure Synapse.
Reference:
https://docs.microsoft.com/en-us/azure/azure-databricks/databricks-extract-load-sql-data-warehouse
Server1이라는 논리적 Microsoft SQL 서버가 포함된 Azure 구독이 있습니다. Server1은 Pool1이라는 Azure Synapse Analytics SQL 전용 풀을 호스팅합니다.
Server1용 TDE(투명한 데이터 암호화) 솔루션을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다.
암호화 키 사용을 추적합니다.
암호화 키의 가용성에 영향을 미치는 Azure 데이터 센터 중단이 발생할 경우 Pool1에 대한 클라이언트 앱의 액세스를 유지합니다.
추천서에 무엇을 포함해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
정답:

Explanation:

Box 1: TDE with customer-managed keys
Customer-managed keys are stored in the Azure Key Vault. You can monitor how and when your key vaults are accessed, and by whom. You can do this by enabling logging for Azure Key Vault, which saves information in an Azure storage account that you provide.
Box 2: Create and configure Azure key vaults in two Azure regions
The contents of your key vault are replicated within the region and to a secondary region at least 150 miles away, but within the same geography to maintain high durability of your keys and secrets.
Reference:
https://docs.microsoft.com/en-us/azure/synapse-analytics/security/workspaces-encryption
https://docs.microsoft.com/en-us/azure/key-vault/general/logging
storage1이라는 Azure Data Lake Storage Gen 2 계정이 있습니다.
storage1의 콘텐츠에 액세스하기 위한 솔루션을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다.
스토리지 계정 수준에서 나열 및 읽기 권한을 부여해야 합니다.
storage1의 개별 개체에 추가 권한을 적용할 수 있습니다.
Microsoft Entra의 일부인 Microsoft Azure Active Directory(Azure AD)의 보안 주체를 인증에 사용해야 합니다.
무엇을 사용해야 합니까? 대답하려면 적절한 구성 요소를 올바른 요구 사항으로 드래그하십시오. 각 구성 요소는 한 번, 두 번 이상 사용하거나 전혀 사용하지 않을 수 있습니다. 콘텐츠를 보려면 창 사이의 분할 막대를 끌거나 스크롤해야 할 수 있습니다.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
정답:

Explanation:
Box 1: Role-based access control (RBAC) roles
List and read permissions must be granted at the storage account level.
Security principals from Microsoft Azure Active Directory (Azure AD), part of Microsoft Entra, must be used for authentication.
Role-based access control (Azure RBAC)
Azure RBAC uses role assignments to apply sets of permissions to security principals. A security principal is an object that represents a user, group, service principal, or managed identity that is defined in Azure Active Directory (AD). A permission set can give a security principal a "coarse-grain" level of access such as read or write access to all of the data in a storage account or all of the data in a container.
Box 2: Access control lists (ACLs)
Additional permissions can be applied to individual objects in storage1.
Access control lists (ACLs)
ACLs give you the ability to apply "finer grain" level of access to directories and files. An ACL is a permission construct that contains a series of ACL entries. Each ACL entry associates security principal with an access level.
Reference: https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-access-control-model
다음 그림과 같이 Azure Data Factory에 트리거가 구성되어 있습니다.

그래픽에 제시된 정보를 토대로 각 진술문을 완성하는 답변 선택지를 선택하려면 드롭다운 메뉴를 사용하세요.
정답:

Explanation:
Table1이라는 테이블이 포함된 Azure Synapse Analytics 전용 SQL 풀이 있습니다.
수집되어 container1이라는 Azure Data Lake Storage Gen2 컨테이너에 로드되는 파일이 있습니다.
파일의 데이터를 table1 및 container1이라는 Azure Data Lake Storage Gen2 컨테이너에 삽입할 계획입니다.
파일의 데이터를 Table1에 삽입하고 데이터를 변환할 계획입니다. 파일의 각 데이터 행은 Table1의 제공 계층에서 하나의 행을 생성합니다.
소스 데이터 파일이 container1에 로드될 때 DateTime이 Table1에 추가 열로 저장되는지 확인해야 합니다.
솔루션: Azure Synapse Analytics 파이프라인에서 파일의 DateTime을 검색하는 메타데이터 가져오기 활동을 사용합니다.
이것이 목표를 달성합니까?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
회사에서 전자상거래, 소매 및 도매의 세 부서에 대한 데이터를 처리하려면 Azure Data Factory 파이프라인을 만들어야 합니다. 솔루션은 데이터가 회사 전체에 대해 처리될 수 있도록 보장해야 합니다.
Data Factory 데이터 흐름 스크립트를 어떻게 완료해야 하나요? 응답하려면 적절한 값을 올바른 대상으로 드래그하십시오. 각 값은 한 번, 두 번 이상 사용되거나 전혀 사용되지 않을 수 있습니다. 콘텐츠를 보려면 창 사이의 분할 막대를 끌거나 스크롤해야 할 수 있습니다.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
정답:

Explanation:

The conditional split transformation routes data rows to different streams based on matching conditions. The conditional split transformation is similar to a CASE decision structure in a programming language. The transformation evaluates expressions, and based on the results, directs the data row to the specified stream.
Box 1: dept=='ecommerce', dept=='retail', dept=='wholesale'
First we put the condition. The order must match the stream labeling we define in Box 3.
Syntax:
<incomingStream>
split(
<conditionalExpression1>
<conditionalExpression2>
disjoint: {true | false}
) ~> <splitTx>@(stream1, stream2, ..., <defaultStream>)
Box 2: discount : false
disjoint is false because the data goes to the first matching condition. All remaining rows matching the third condition go to output stream all.
Box 3: ecommerce, retail, wholesale, all
Label the streams
Reference:
https://docs.microsoft.com/en-us/azure/data-factory/data-flow-conditional-split
Microsoft Purview 계정이 있습니다. CSV 파일의 계보 보기는 다음 그림에 나와 있습니다.

계보에 대한 데이터는 어떻게 채워집니까?

정답: A
설명: (DumpTOP 회원만 볼 수 있음)
Azure IoT Hub에서 입력 데이터를 수신하고 결과를 Azure Blob Storage에 쓰는 Azure Analytics 쿼리를 작성하고 있습니다.
시간당 센서당 판독값의 차이를 계산해야 합니다.
쿼리를 어떻게 완료해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
정답:

Explanation:

Box 1: LAG
The LAG analytic operator allows one to look up a "previous" event in an event stream, within certain constraints. It is very useful for computing the rate of growth of a variable, detecting when a variable crosses a threshold, or when a condition starts or stops being true.
Box 2: LIMIT DURATION
Example: Compute the rate of growth, per sensor:
SELECT sensorId,
growth = reading -
LAG(reading) OVER (PARTITION BY sensorId LIMIT DURATION(hour, 1))
FROM input
Reference:
https://docs.microsoft.com/en-us/stream-analytics-query/lag-azure-stream-analytics
다음 그림에 표시된 논리 흐름을 갖춘 Azure Data Factory 파이프라인이 있습니다.

다음 각 문장에 대해 문장이 사실이라면 예를 선택하세요. 그렇지 않으면 아니요를 선택하세요.
참고사항: 선택한 항목 하나당 1점입니다.
정답:

Explanation:

우리와 연락하기

문의할 점이 있으시면 메일을 보내오세요. 12시간이내에 답장드리도록 하고 있습니다.

근무시간: ( UTC+9 ) 9:00-24:00
월요일~토요일

서포트: 바로 연락하기