최신 Professional-Data-Engineer日本語 무료덤프 - Google Certified Professional Data Engineer Exam (Professional-Data-Engineer日本語版)

次の要件を持つ新しいプロジェクトのデータベースを選択する必要があります。
*完全に管理
*自動的にスケールアップすることができます
*トランザクションの一貫性
*最大6TBまでスケールアップ可能
* SQLを使用してクエリを実行できます
どのデータベースを選択しますか?

정답: D
時系列メトリックを集約してCloudBigtableに書き込むCloudDataflowジョブを含むデータパイプラインがあります。このデータは、組織全体の何千人ものユーザーが使用するダッシュボードにフィードされます。追加の同時ユーザーをサポートし、データの書き込みに必要な時間を短縮する必要があります。あなたはどちらの2つの行動を取るべきですか? (2つ選択してください。)

정답: A,E
Alモデルを配信するには広告データが必要であり、分析のロングテールと外れ値のデータポイントを特定する必要があります。Alモデルを実行する前に、リールに近い時間でデータをクレンジングする必要があります。

정답: B
これらのうち、スパースベクトルの値の例はどれですか? (2つの答えを選択してください。)

정답: B,D
설명: (DumpTOP 회원만 볼 수 있음)
データフローパイプラインをテストして、テキストファイルを取り込んで変換します。ファイルは圧縮されたgzipで圧縮され、エラーは配信不能キューに書き込まれ、Sidelnputsを使用してデータを結合しています。パイプラインの完了に予想よりも時間がかかることに気づきました。Dataflowジョブを迅速に処理するにはどうすればよいですか。

정답: C
あなたは大規模な不動産会社に勤めており、機械学習に使用するために 6 TB の住宅販売データを準備しています。SOL を使用してデータを変換し、BigQuery ML を使用して機械学習モデルを作成します。
変換されていない生のデータセットに対する予測にモデルを使用する予定です。予測時のスキューを防ぐためにワークフローをどのように設定すればよいでしょうか?

정답: D
설명: (DumpTOP 회원만 볼 수 있음)
社内のデータアナリストには、プロジェクトでCloud IAMオーナーの役割が割り当てられており、プロジェクトで複数のGCP製品を操作できるようになっています。組織では、すべてのBigQueryデータアクセスログを6か月間保持する必要があります。社内の監査担当者のみがすべてのプロジェクトのデータアクセスログにアクセスできるようにする必要があります。あなたは何をするべきか?

정답: C
米国を拠点とする会社が、ユーザーの行動を評価して対応するためのアプリケーションを作成しました。
プライマリテーブルのデータ量は、1秒あたり250,000レコードずつ増加します。多くのサードパーティは、アプリケーションのAPIを使用して、独自のフロントエンドアプリケーションに機能を組み込みます。アプリケーションのAPIは、次の要件に準拠している必要があります。
*単一のグローバルエンドポイント
* ANSISQLのサポート
*最新のデータへの一貫したアクセス
あなたは何をするべきか?

정답: B
あなたの会社は、カンマ区切り値(CSV)ファイルをGoogleBigQueryに読み込んでいます。データは完全に正常にインポートされます。ただし、インポートされたデータは、バイトごとにソースファイルと一致していません。この問題の最も可能性の高い原因は何ですか?

정답: C
Cloud Pub / Subトピックからメッセージを受信し、その結果をEUのBigQueryデータセットに書き込むCloudDataflowでパイプラインを実行しています。現在、パイプラインはeurope-west4にあり、最大3つのワーカー、インスタンスタイプn1-standard-1があります。ピーク時には、3つのワーカーすべてが最大CPU使用率になっているときに、パイプラインがレコードをタイムリーに処理するのに苦労していることに気付きました。パイプラインのパフォーマンスを向上させるために実行できる2つのアクションはどれですか? (2つ選択してください。)

정답: A,B
時系列トランザクションデータをコピーするデータパイプラインを作成して、分析のためにデータサイエンスチームがBigQuery内からクエリを実行できるようにする必要があります。 1時間ごとに、何千ものトランザクションが新しいステータスで更新されます。初期データセットのサイズは1.5PBで、1日あたり3TBずつ増加します。データは高度に構造化されており、データサイエンスチームはこのデータに基づいて機械学習モデルを構築します。データサイエンスチームのパフォーマンスと使いやすさを最大化する必要があります。どの2つの戦略を採用する必要がありますか?
2つの答えを選択してください。

정답: A,B
Webアプリケーションログを含むトピックを含むオンプレミスのApacheKafkaクラスターがあります。 BigQueryとCloudStorageで分析するには、データをGoogleCloudに複製する必要があります。推奨されるレプリケーション方法は、KafkaConnectプラグインのデプロイを回避するためのミラーリングです。
あなたは何をするべきか?

정답: B
あなたの会社は、過去のデータをクラウドストレージにアップロードする必要があります。セキュリティルールでは、外部IPからオンプレミスリソースへのアクセスは許可されていません。最初のアップロード後、既存のオンプレミスアプリケーションから毎日新しいデータを追加します。彼らは何をすべきですか?

정답: C

우리와 연락하기

문의할 점이 있으시면 메일을 보내오세요. 12시간이내에 답장드리도록 하고 있습니다.

근무시간: ( UTC+9 ) 9:00-24:00
월요일~토요일

서포트: 바로 연락하기