ログイン

Alibaba11
60問 • 1年前
  • YUSUKE
  • 通報

    問題一覧

  • 1

    Alibaba11-01 MaxCompute はラベルベースのセキュリティ (ラベル セキュリティ) をサポートしています。データとデータにアクセスするユーザーをセキュリティ レベルの観点から分割し、両者のセキュリティ レベルの一致に基づいてどのユーザーがどのデータにアクセスできるかを決定することで、強制アクセス制御 (MAC) を実装する必要があります。次の説明のうち、正しくないものはどれですか。

    ラベル セキュリティ チェックに合格したユーザーは、選択権限がなくてもデータを読み取ることができます

  • 2

    Alibaba11-02 AliOrg 社は、事実上ダウンタイムなしでデータを移行することを計画しています。移行中にソース データベースに発生するすべてのデータ変更がターゲットに継続的に複製され、移行プロセス中にソース データベースが完全に動作できるようにしたいと考えています。データベースの移行が完了すると、ターゲット データベースは選択した期間ソースと同期されたままになり、都合の良いときにデータベースを切り替えることができます。次の Alibaba 製品のどれが、これを行うのに適していますか?

    DTS (Data Transmission Service)

  • 3

    Alibaba11-03 ある金融会社は、Alibaba Cloud のデータ処理技術を使用してオンライン ローン製品をリリースしました。この製品は、取引量、オンライン クレジット、企業の運用状況など、毎日合計約 20 PB のメンバーの履歴データを分析してクラスタリング分析を実行し、ユーザー クレジットをモデル化して予測を生成します。これにより、企業はユーザーがオンラインでローンを申請するときに、ユーザーのモデルに基づいてユーザーの資格と信用枠を迅速に評価できます。Alibaba Cloud 製品に関する理解に基づいて、次のソリューションのうち、コストが最も低く、パフォーマンスが最も優れているのはどれですか。

    MaxCompute を使用してデータ モデリングを行い、モデルを使用して、ローン資格のあるすべてのメンバーの資格と信用枠を評価します。処理結果は MaxCompute に保存されます

  • 4

    Alibaba11-04 MaxCompute テーブルには、日時情報を含むデータがあります。このデータは、テキスト形式からテーブルにロードする必要があります。次のデータ形式のうち、正しいものはどれですか。

    2018/1/1 0:00

  • 5

    Alibaba11-05 Jack は MaxCompute の prjf プロジェクトにタブレット t1 を作成します。このプロジェクトには id 列が含まれています。ラベル セキュリティを確認した後、Jack は次のコマンドを実行します: SET LABEL 1 TO TABLE t1; SET LABEL 2 TO TABLE t1 (id); SET LABEL 3 TO TABLE t1; DESC t1; この時点で、テーブル t1 の id 列の機密レベル ラベルは何ですか?

    Level 2

  • 6

    Alibaba11-06 DataWorks XXX は、複数の異種データ ソースの品質チェック、通知、管理サービスをサポートするワンストップ プラットフォームです。

    Data Quality Center (DQC)

  • 7

    Alibaba11-07 MaxCompute と Table Store は、独立したビッグデータ、コンピューティング、ストレージ サービスです。したがって、これら 2 つのサービス間のネットワークがブロックされていないことを確認する必要があります。MaxCompute のパブリック クラウド サービスが Table Store に保存されているデータにアクセスする場合は、Table Store の XXX アドレスを使用することをお勧めします。

    intranet IP

  • 8

    Alibaba11-08 XXX では、予測結果を取得するためにモデルをトレーニングし、予測結果を既存のデータと比較する必要があります。

    Supervised learning

  • 9

    Alibaba11-09 Alibaba Cloud Realtime Compute は、XXX に基づくリアルタイムのビッグデータ処理を可能にするワンストップの高性能プラットフォームを提供します。

    Apache Flink

  • 10

    Alibaba11-10 MySQL データベースに 100 個のテーブルが含まれており、Jack が DataWorks Data Integration を使用してそれらのテーブルすべてを MaxCompute に移行したい場合、従来の方法では 100 個のデータ同期タスクを構成する必要があります。DataWorks の XXX 機能を使用すると、すべてのテーブルを同時にアップロードできます。

    フルデータベース移行機能

  • 11

    Alibaba11-11 DataWorks のデータ同期タスクの実行に失敗し、実行ログに次のメッセージが表示されます: 「コード:[OdpsReader-33]、説明:[パーティション構成エラー]。 - パーティション構成エラー。構成されたパーティションに従って、ソース テーブルに一致するパーティションがありません。ソース テーブルのすべてのパーティションは次のようにリストされます: [ds='20160328' ds='20160328.done' ds=20160329' ds='20160329.done' ds='20160330' ds='20160330.done']。構成されたパーティションは、[ds=$(daytime}] です。必要に応じて情報を変更してください。」XXX でも同様なエラーが発生します。

    タスクのソース テーブルが構成されたときに、カスタム変数 $(daytime) を使用してパーティション値を指定しましたが、データ同期ノードのパラメータ構成で daytime 変数に値を割り当てることができませんでした

  • 12

    Alibaba11-12 データ開発に DataWorks を使用する場合、通常はデータの抽出、変換、ロード、つまり ETL プロセスを実行する必要があります。データの抽出とロードは、データ同期ノードを使用して実装できます。データ同期に関する次の記述のうち、間違っているものはどれですか。

    ミリ秒レベルのデータ同期がサポートされています

  • 13

    Alibaba11-13 DataWorks では、ワークフロー タスクは 1 回限りのスケジュールと定期的なスケジュールをサポートしています。定期的なスケジュールでは、異なる時間粒度のスケジュール サイクルを設定できます。たとえば、Task1 を毎週月曜日に実行するようにスケジュールできます。次の記述のうち正しいものはどれですか。

    タスク 1 は毎日スケジュールされていますが、月曜日にのみ実行されます。システムもインスタンスを生成しますが、実際にロジックを実行したりリソースを占有したりすることなく、インスタンスを正常に実行するように設定しているだけです

  • 14

    Alibaba11-14 DataWorks では、SQL Task1 は毎日スケジュールされた定期タスクであり、パーティション テーブル Table1 を生成します。実行ごとにパーティションが生成され、パーティション値は前月の最終日の日付です (パーティション名は ds、形式は yyyymmdd)。スケジュール システムによって提供される時間パラメータを使用して Table1 パーティションを定義し、Task1 のスケジュールされた実行ごとに時間値が自動的に置き換えられるようにするには、Task1 をどのように構成すればよいでしょうか。

    タスク 1 は、毎月 31 日に実行されるようにスケジュールされています。コードでは、Table1 パーティション ds=${bdp.system.cyctime}

  • 15

    Alibaba11-15 DataWorks では、SQL Task1 は毎日スケジュールされた定期タスクです。Task1 は、Task1 が実行されるたびに、Table2 のパーティションのデータを使用します (Table2 パーティション フィールド名は ds、形式は yyyymmdd)。Table2 パーティションの値は、現在の営業日の月の最初の日です (たとえば、実行時間が 2018 年 5 月 10 日の場合、営業日は 20180509、Table2 パーティションの値は 20180501 になります)。スケジュール システムによって提供される時間パラメータを使用して、Table2 パーティションを定義し、Task1 のスケジュールされた実行ごとに時間値が自動的に置き換えられるようにするには、Task1 をどのように構成すればよいですか。

    Task1 コードでは、表 2 のパーティション ds=${var}01' とパラメータ構成: var=S[yyyymm-1]

  • 16

    Alibaba11-16 ある企業がデータ ウェアハウスの構築に MaxCompute を選択しました。1 人以上の担当者が実装と運用管理 (O&M) を担当しています。役割の分割、データ権限、複数ユーザーの調整、その他の管理作業を改善し、同時に自動タスク スケジューリング、タスク監視、エラーの警告と処理などの O&M 作業も実装し、シンプルで使いやすい開発環境が必要な場合、次のソリューションのうちどれが最も便利で効率的でしょうか。

    DataWorks を開発ツールとして使用できます

  • 17

    Alibaba11-17 金融サービス会社は、顧客取引データを MaxCompute に保存する必要があり、金額は小数点以下 2 桁まで正確である必要があります。このシナリオでは、XXX タイプが最適です。

    Decimal

  • 18

    Alibaba11-18 MaxCompute の管理者は、従業員のユーザー 1 とユーザー 2 にマルチテナント権限管理を展開し、割り当てられた権限に従ってデータ操作を実行できるようにしたいと考えています。以下のヒントを参照して、期待される結果について判断してください。 前提条件: 1. クラウド RAM サブアカウントを 2 つ作成: user1@aliyun.com と user2@aliyun.com 2. アカウント user1@aliyun.com と user2@aliyun.com を使用して、MaxCompute プロジェクトを 2 つ作成: odps1 と odps2 3. MaxCompute 所有者アカウント user1@aliyun.com と user2@aliyun.com の AccessKey をそれぞれ使用して、プロジェクト admin_task_project、odps1、odps2 の構成ファイル odps_config.admin、odps_config.odps1、odps_config.odps2 を構成します テスト手順: 1. odps1 にアクセスします ./odpscmd –config=../conf/odps_config.odps1 create table test(id bigint,name string); tunnel upload /tmp/data.txt test; 2. odps2 にアクセスします ./odpscmd –config=../conf/odps_config.odps2 select * from odps1.test; 3. admin_task_project プロジェクトにアクセスして、user2@aliyun.com アカウントを承認します /odpscmd –config=../conf/odps_config.admin use odps2; ユーザーを一覧表示します。odps2 のアカウント ALIYUN$user2@aliyun.com を表示します use odps1; ユーザー ALIYUN$user2@aliyun.com を追加します。 テーブル test でユーザー ALIYUN$user2@aliyun.com に describe、select を付与します。 ALIYUN$user2@aliyun.com の付与を表示します。 4. 手順 2 を繰り返します: user2@aliyun.com を設定して、テスト テーブルからデータを読み取ろうとします 5. user2@aliyun.com を設定して、テスト テーブルからデータを削除しようとします drop table odps1.test; 次の説明のうち、間違っているものはどれですか。

    ステップ 3 で、user2@aliyun.com はテスト テーブルからデータを読み取ろうとしますが、読み取り操作は成功し、通常の結果が返されます

  • 19

    Alibaba11-19 E-MapReduce HBase クラスターは、HBase の組み込み XXX 機能を使用して HBase テーブルをバックアップし、バックアップ データを Alibaba Cloud Object Storage Service (OSS) にエクスポートできます。

    Snapshot

  • 20

    Alibaba11-20 E-MapReduce Hive では、次の SQL ステートメントを使用して、OSS からデータをロードするための外部テーブルを作成しました: CREATE EXTERNAL TABLE storage_log(content STRING) PARTITIONED BY (ds STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t’ STORED AS TEXTFILE LOCATION ‘oss://log-124531712/biz-logs/airtake/pro/storage’; 次に、期待どおりにデータが表示されるかどうかを確認するためにクエリを発行しました: hive> select * from storage_log; OK 所要時間: 0.3 秒 外部テーブルを使用してデータが取得されていません Hive によって作成された外部テーブルを使用してデータを取得できない理由として考えられるものは何ですか?

    Hive が検索できるパーティション ディレクトリがありません

  • 21

    Alibaba11-21 金融サービス会社は、顧客取引データを MaxCompute に保存する必要があり、金額は小数点以下 2 桁まで正確である必要があります。このシナリオでは、XXX タイプが最適です。

    Decimal

  • 22

    Alibaba11-22 E-MapReduce クラスターは、LDAP を介してアカウント システムを管理する LDAP ベースの認証をサポートします。Kerberos クライアントは、認証の ID 情報として LDAP アカウント情報を使用します。LDAP アカウントは、Hue などの他のサービスと共有できます。E-MapReduce クラスターで構成された LDAP サービス (ApacheDS 内) を使用することも、既存の LDAP サービスを使用することもできます。必要なのは、XXX で構成することだけです。

    Kerberos server

  • 23

    Alibaba11-23 E-MapReduce の次のデーモンまたはサービスのうち、ストリーミングとメッセージ キャッシュを実装するために使用されるものはどれですか。

    Kafka

  • 24

    Alibaba11-24 Alibaba E-MapReduce (EMR) に含まれる Apache Spark は、高速で汎用的なクラスター コンピューティング システムです。Java、Scala、Python、R の高レベル API と、一般的な実行グラフをサポートする最適化されたエンジンを提供します。また、豊富な高レベル ツール セットもサポートしています。次のツールのうち、Spark に含まれていないものはどれですか。

    TensorFlow for Al

  • 25

    Alibaba11-25 E-MapReduce クラスターには、マスター、コア、XXX の 3 種類のノード インスタンスがあります。

    Task

  • 26

    Alibaba11-26 会社 A は、社会保障番号から「出生州」などの情報を抽出する必要があります。このシナリオに適した UDF のタイプはどれですか?

    ユーザー定義スカラー関数

  • 27

    Alibaba11-27 MaxCompute トンネル コマンドを使用して log.txt ファイルを t_log テーブルにアップロードする場合、t_log はパーティション テーブルであり、パーティション列は (p1 文字列、p2 文字列) です。次のコマンドのうち正しいものはどれですか。

    Tunnel upload log.txt t_log/p1="b1",p2="b2"

  • 28

    Alibaba11-28 顧客が MaxCompute サービスとコンソールを導入して構成したら、次の手順で基本的な機能テストを行うことができます。 MaxCompute 管理コンソールを起動し、次の操作を実行します。 1. vim /tmp/data.txt コマンドを実行して、ファイル data.txt を作成します。 data.txt ファイルに次のデータを入力します。 1 1,a 2 2,b 3 3,c 2. cd $ODPSCMD_HOME/odps_tools/clt/bin/ コマンドを実行します。 3. ./odpscmd コマンドを実行します。 create table test(id int,name string); _________________ 4. select count(1) from test; コマンドを実行します。期待される結果 1 が表示されます。 5. select * from test; コマンドを実行します。期待される結果 2 が表示されます 期待される結果: 結果 1: テーブル テストの行数が表示されます 結果 2: テーブル テストのデータが出力されます 空欄を埋めるのに最適なのは次のうちどれですか?

    tunnel upload /tmp/data.txt test;

  • 29

    Alibaba11-29 MaxCompute は、プロジェクト レベルの強制アクセス制御 (MAC) 戦略であるラベルベースのセキュリティ (Label Security) をサポートしています。これにより、プロジェクト管理者は機密データへのユーザー アクセスをより柔軟に制御できるようになります。Label Security が制御できる最小の粒度はどのくらいですか?

    Column

  • 30

    Alibaba11-30 MaxCompute (旧称 ODPS) MapReduce は、分散プログラミング フレームワークを提供します。次の MaxCompute オブジェクトのうち、MR の入力および出力として機能できるものはどれですか。

    Tables

  • 31

    Alibaba11-31 DataWorks の FTP データ ソースを使用すると、FTP へのデータの読み取り/書き込みが可能になり、ウィザード モードとスクリプト モードでの同期タスクの構成がサポートされます。

    TRUE

  • 32

    Alibaba11-32 DataWorks を使用すると、あらゆる種類のタスクを作成し、必要に応じてスケジュール サイクルを構成できます。スケジュール サイクルでサポートされている粒度レベルには、日、週、月、時間、分、秒が含まれます。

    FALSE

  • 33

    Alibaba11-33 ツールバーのウィジェット メニューからキャンバスに追加するウィジェットを選択できます。現在、サードパーティのウィジェットを除いて、さまざまな種類のウィジェットが DataV でサポートされています。

    TRUE

  • 34

    Alibaba11-34 DataWorks では、Operation&Management (O&M) センターの [タスクの管理] ビューに表示されるタスクには実行ステータスがありません。

    FALSE

  • 35

    Alibaba11-35 DataWorks では、仮想ノードはドライ ラン ノードです。つまり、タスクの成功ステータスを返しますが、実際にはタスクを実行しません。スケジュールされた 2 つの定期タスク Task1 と Task2 の間には依存関係はなく、2 つのタスクは上流タスクを共有しません。統合管理のために 1 つの親タスクを共有する場合は、Task1 と Task2 の上流タスクとして仮想ノードを作成できます。

    TRUE

  • 36

    Alibaba11-36 Realtime Compute がデータ ストレージ リソースにアクセスできるようにするには、事前に Realtime Compute にこれらのリソースにアクセスする権限を付与する必要があります。

    TRUE

  • 37

    Alibaba11-37 DataV の「公開」パネルには、認証用の「アクセス トークン」機能があり、この機能は HMAC-SHA256 base64 暗号化に基づいています。

    TRUE

  • 38

    Alibaba11-38 DataWorks データ同期タスクでは、すべてのデータ ソースでソース テーブル内の整数列を分割キーとして選択して、データ同期の効率を向上させることができます。

    FALSE

  • 39

    Alibaba11-39 DataWorks では、タスクが毎週月曜日に実行されるようにスケジュールされている場合、タスクは火曜日から日曜日まで毎日実行されますが、火曜日から日曜日までのスケジュールされた実行はすべてドライ ランであり、実際には実行されずに成功が返されます。

    TRUE

  • 40

    Alibaba11-40 DataWorks では、最小のスケジュール サイクル粒度は 1 分です。

    TRUE

  • 41

    Alibaba11-41 MaxCompute のパーティション テーブルの場合、INSERT OVERWRITEステートメントを使用してパーティション内のデータを更新する前に、ターゲット パーティションが存在している必要があります。

    FALSE

  • 42

    Alibaba11-42 プロジェクトの所有者である Alice が別のユーザーを承認することに決めた場合、そのユーザーをプロジェクトに追加する必要があります。プロジェクトに追加されたユーザーのみが承認されます。

    TRUE

  • 43

    Alibaba11-43 システムは、過去 24 時間の MaxCompute サービス請求書の平均支払額に基づいて、アカウント残高が次の 3 つの請求サイクルの MaxCompute サービスの支払いに十分であるかどうかを判断します。十分でない場合は、システムから SMS/電子メールによるリマインダーが送信されます。

    FALSE

  • 44

    Alibaba11-44 サブスクリプション E-MapReduce クラスターの有効期限が切れそうになったら、E-MapReduce クラスター サービスを引き続き使用するには、更新する必要があります。クラスターの更新には、ECS インスタンスの更新のみが含まれます。

    FALSE

  • 45

    Alibaba11-45 E-MapReduce の Kerberos は、内部リージョン アクセスのみをサポートします。

    FALSE

  • 46

    Alibaba11-46 SmartData が提供する E-MapReduce の JindoFS は、ストレージ バックエンドとして OSS を使用します。

    TRUE

  • 47

    Alibaba11-47 タスクは、MaxCompute の基本的な計算単位です。計算タスク (select など) や非計算タスク (desc など) などのすべてのタスクは、実行中にインスタンス化されます。ユーザーは、インスタンス ID を通じて実行中にタスク情報を取得できます。

    TRUE

  • 48

    Alibaba11-48 MaxCompute でビューを作成するには、作成者は参照するテーブルに対する読み取り権限を持っている必要があります。

    TRUE

  • 49

    Alibaba11-49 MaxCompute は、Hadoop MapReduce ジョブに対して、ある程度のバイナリ レベルの互換性をすでに提供しています。つまり、コードを変更することなく、元の Hadoop MapReduce JAR パッケージを MaxCompute で直接実行するための構成を指定できます。

    TRUE

  • 50

    Alibaba11-50 リソースは MaxCompute の特別な概念です。ユーザー定義関数 UDF または MapReduce を使用する場合は、リソースが必要です。

    TRUE

  • 51

    Alibaba11-51 DataWorks では、データ同期タスクは正常に実行されましたが、宛先テーブルが空です。次の記述のうち正しいものはどれですか? (正解数: 2)

    エラー許容エントリの最大数が構成されている場合、つまり「エラー レコードの数が超過した場合」の値で、ソース テーブル内の抽出の適合レコードの数が現在構成されているエラー許容エントリの最大数よりも少なく、すべてのレコードで同期エラーが発生した場合、同期タスク全体のステータスは「実行成功」になりますが、宛先テーブルは空になります, 特定の実行ログとログ内の特定のソース テーブルの情報を確認します。チェックにより、抽出条件を満たすデータ レコードの数が 0 であることが示されます

  • 52

    Alibaba11-52 DataWorks Data Quality Control は DataSet を監視します。現在、Data Quality は XXX の監視をサポートしています (正解数: 2)

    MaxCompute data tables, DataHub real-time data streams

  • 53

    Alibaba11-53 E-MapReduce を使用する場合、ユーザーは oss:// と ossref:// の 2 種類の OSS URI を使用できます。これらの 2 種類について正しいのは次のうちどれですか? (正解数: 2)

    oss://prefix url は、ジョブの入力および出力データ ソースを指定するために使用されます。これは hd​​fs:// に似ています, ossref://prefix url は、E-MapReduce ジョブの構成でのみ有効であり、ジョブの実行に必要なリソースを指定するために使用されます

  • 54

    Alibaba11-54 DataWorks では、スケジュールされたタスクが実行される前にタスクがインスタンス化されます。つまり、インスタンスが生成され、実行されて、スケジュールされたタスクが実行されます。O&M センターのタスク操作と管理 (O&M) ビューに表示されるインスタンスは、タスクによって自動的にスケジュールされます。インスタンスに対して XXX を実行できます。(正解数: 2)

    Viewing node run logs, Re-running and resuming scheduling

  • 55

    Alibaba11-55 E-MapReduce は、次の 3 種類のリアルタイム コンピューティング サービスを提供します (正解数: 3)

    Spark Streaming, Flink, Storm

  • 56

    Alibaba11-56 MaxCompute トンネル コマンドの fd パラメータを使用して、列区切り文字を指定できます。fd 値に関する次の記述のうち正しいものはどれですか? (正解数: 3)

    複数の文字を区切り文字として使用できます, 列区切り文字と行区切り文字を同じにすることはできません, デフォルト値はコンマです

  • 57

    Alibaba11-57 DataV では、各視覚化プロジェクトの公開パネルを見つけることができます。特定のプロジェクトの公開ステータスを示すスイッチがあります。スイッチがオンの場合、プロジェクトは Web ページとして公開されており、スイッチがオフの場合、公開機能は 3 つのモデルで利用できます。(正解数: 3)

    アクセス トークンで共有, パスワードで共有, パブリック共有

  • 58

    Alibaba11-58 MaxCompute (旧 ODPS) の関数 CAST を使用してデータ型を変換できますが、次のどの変換がサポートされていますか? (正解数: 3)

    bigint を double に変換, bigint を文字列に変換, datetime を文字列に変換

  • 59

    Alibaba11-59 DataV で視覚化プロジェクトを作成する場合は、まず生データのソースを指定する必要があります。データ ソースとは、生データが存在する場所です。DataV は、いくつかの種類のデータ ソースをサポートしています:(正解数: 3)

    データベース, CSV, 静的 JSON

  • 60

    Alibaba11-60 fact_order は MaxCompute のパーティション テーブルです。テーブル作成ステートメントは次のとおりです: create table fact_order( order_id string, user_id string, order_date datetime, order_amt 10 進数) partitioned by (dt string); 開発者はデータ チェック中に次のステートメントを使用して一時テーブルを作成します: create table tmp_order as select * from fact_order where dt=’20180310’ and order_amt>100; テーブル fact_order には 100 万件の一致するレコードがあります。このステートメントの結果の正しい説明は XXX です。(正解数: 2)

    tmp_order テーブルが作成され、select ステートメントの結果データが含まれます, tmp_order は非パーティション テーブルです

  • Alibaba01

    Alibaba01

    YUSUKE · 60問 · 1年前

    Alibaba01

    Alibaba01

    60問 • 1年前
    YUSUKE

    Alibaba02

    Alibaba02

    YUSUKE · 60問 · 1年前

    Alibaba02

    Alibaba02

    60問 • 1年前
    YUSUKE

    Alibaba03

    Alibaba03

    YUSUKE · 60問 · 1年前

    Alibaba03

    Alibaba03

    60問 • 1年前
    YUSUKE

    Alibaba12

    Alibaba12

    YUSUKE · 60問 · 1年前

    Alibaba12

    Alibaba12

    60問 • 1年前
    YUSUKE

    2023年秋エンベデッド

    2023年秋エンベデッド

    YUSUKE · 25問 · 1年前

    2023年秋エンベデッド

    2023年秋エンベデッド

    25問 • 1年前
    YUSUKE

    2022年秋エンベデッド

    2022年秋エンベデッド

    YUSUKE · 25問 · 1年前

    2022年秋エンベデッド

    2022年秋エンベデッド

    25問 • 1年前
    YUSUKE

    2021年秋エンベデッド

    2021年秋エンベデッド

    YUSUKE · 25問 · 1年前

    2021年秋エンベデッド

    2021年秋エンベデッド

    25問 • 1年前
    YUSUKE

    2020年秋エンベデッド

    2020年秋エンベデッド

    YUSUKE · 25問 · 1年前

    2020年秋エンベデッド

    2020年秋エンベデッド

    25問 • 1年前
    YUSUKE

    2019年春エンベデッド

    2019年春エンベデッド

    YUSUKE · 25問 · 1年前

    2019年春エンベデッド

    2019年春エンベデッド

    25問 • 1年前
    YUSUKE

    2018年春エンベデッド

    2018年春エンベデッド

    YUSUKE · 25問 · 1年前

    2018年春エンベデッド

    2018年春エンベデッド

    25問 • 1年前
    YUSUKE

    2017年春エンベデッド

    2017年春エンベデッド

    YUSUKE · 25問 · 1年前

    2017年春エンベデッド

    2017年春エンベデッド

    25問 • 1年前
    YUSUKE

    2024年春システムアーキテクト

    2024年春システムアーキテクト

    YUSUKE · 25問 · 10ヶ月前

    2024年春システムアーキテクト

    2024年春システムアーキテクト

    25問 • 10ヶ月前
    YUSUKE

    2023年春システムアーキテクト

    2023年春システムアーキテクト

    YUSUKE · 25問 · 10ヶ月前

    2023年春システムアーキテクト

    2023年春システムアーキテクト

    25問 • 10ヶ月前
    YUSUKE

    2022年春システムアーキテクト

    2022年春システムアーキテクト

    YUSUKE · 25問 · 10ヶ月前

    2022年春システムアーキテクト

    2022年春システムアーキテクト

    25問 • 10ヶ月前
    YUSUKE

    2021年春システムアーキテクト

    2021年春システムアーキテクト

    YUSUKE · 25問 · 10ヶ月前

    2021年春システムアーキテクト

    2021年春システムアーキテクト

    25問 • 10ヶ月前
    YUSUKE

    2019年秋システムアーキテクト

    2019年秋システムアーキテクト

    YUSUKE · 25問 · 9ヶ月前

    2019年秋システムアーキテクト

    2019年秋システムアーキテクト

    25問 • 9ヶ月前
    YUSUKE

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1

    YUSUKE · 25問 · 5ヶ月前

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-1

    25問 • 5ヶ月前
    YUSUKE

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2

    YUSUKE · 25問 · 5ヶ月前

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #01-2

    25問 • 5ヶ月前
    YUSUKE

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1

    YUSUKE · 25問 · 5ヶ月前

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1

    Google Cloud Platform Professional Data Engineer 試験 - 練習セット #02-1

    25問 • 5ヶ月前
    YUSUKE

    問題一覧

  • 1

    Alibaba11-01 MaxCompute はラベルベースのセキュリティ (ラベル セキュリティ) をサポートしています。データとデータにアクセスするユーザーをセキュリティ レベルの観点から分割し、両者のセキュリティ レベルの一致に基づいてどのユーザーがどのデータにアクセスできるかを決定することで、強制アクセス制御 (MAC) を実装する必要があります。次の説明のうち、正しくないものはどれですか。

    ラベル セキュリティ チェックに合格したユーザーは、選択権限がなくてもデータを読み取ることができます

  • 2

    Alibaba11-02 AliOrg 社は、事実上ダウンタイムなしでデータを移行することを計画しています。移行中にソース データベースに発生するすべてのデータ変更がターゲットに継続的に複製され、移行プロセス中にソース データベースが完全に動作できるようにしたいと考えています。データベースの移行が完了すると、ターゲット データベースは選択した期間ソースと同期されたままになり、都合の良いときにデータベースを切り替えることができます。次の Alibaba 製品のどれが、これを行うのに適していますか?

    DTS (Data Transmission Service)

  • 3

    Alibaba11-03 ある金融会社は、Alibaba Cloud のデータ処理技術を使用してオンライン ローン製品をリリースしました。この製品は、取引量、オンライン クレジット、企業の運用状況など、毎日合計約 20 PB のメンバーの履歴データを分析してクラスタリング分析を実行し、ユーザー クレジットをモデル化して予測を生成します。これにより、企業はユーザーがオンラインでローンを申請するときに、ユーザーのモデルに基づいてユーザーの資格と信用枠を迅速に評価できます。Alibaba Cloud 製品に関する理解に基づいて、次のソリューションのうち、コストが最も低く、パフォーマンスが最も優れているのはどれですか。

    MaxCompute を使用してデータ モデリングを行い、モデルを使用して、ローン資格のあるすべてのメンバーの資格と信用枠を評価します。処理結果は MaxCompute に保存されます

  • 4

    Alibaba11-04 MaxCompute テーブルには、日時情報を含むデータがあります。このデータは、テキスト形式からテーブルにロードする必要があります。次のデータ形式のうち、正しいものはどれですか。

    2018/1/1 0:00

  • 5

    Alibaba11-05 Jack は MaxCompute の prjf プロジェクトにタブレット t1 を作成します。このプロジェクトには id 列が含まれています。ラベル セキュリティを確認した後、Jack は次のコマンドを実行します: SET LABEL 1 TO TABLE t1; SET LABEL 2 TO TABLE t1 (id); SET LABEL 3 TO TABLE t1; DESC t1; この時点で、テーブル t1 の id 列の機密レベル ラベルは何ですか?

    Level 2

  • 6

    Alibaba11-06 DataWorks XXX は、複数の異種データ ソースの品質チェック、通知、管理サービスをサポートするワンストップ プラットフォームです。

    Data Quality Center (DQC)

  • 7

    Alibaba11-07 MaxCompute と Table Store は、独立したビッグデータ、コンピューティング、ストレージ サービスです。したがって、これら 2 つのサービス間のネットワークがブロックされていないことを確認する必要があります。MaxCompute のパブリック クラウド サービスが Table Store に保存されているデータにアクセスする場合は、Table Store の XXX アドレスを使用することをお勧めします。

    intranet IP

  • 8

    Alibaba11-08 XXX では、予測結果を取得するためにモデルをトレーニングし、予測結果を既存のデータと比較する必要があります。

    Supervised learning

  • 9

    Alibaba11-09 Alibaba Cloud Realtime Compute は、XXX に基づくリアルタイムのビッグデータ処理を可能にするワンストップの高性能プラットフォームを提供します。

    Apache Flink

  • 10

    Alibaba11-10 MySQL データベースに 100 個のテーブルが含まれており、Jack が DataWorks Data Integration を使用してそれらのテーブルすべてを MaxCompute に移行したい場合、従来の方法では 100 個のデータ同期タスクを構成する必要があります。DataWorks の XXX 機能を使用すると、すべてのテーブルを同時にアップロードできます。

    フルデータベース移行機能

  • 11

    Alibaba11-11 DataWorks のデータ同期タスクの実行に失敗し、実行ログに次のメッセージが表示されます: 「コード:[OdpsReader-33]、説明:[パーティション構成エラー]。 - パーティション構成エラー。構成されたパーティションに従って、ソース テーブルに一致するパーティションがありません。ソース テーブルのすべてのパーティションは次のようにリストされます: [ds='20160328' ds='20160328.done' ds=20160329' ds='20160329.done' ds='20160330' ds='20160330.done']。構成されたパーティションは、[ds=$(daytime}] です。必要に応じて情報を変更してください。」XXX でも同様なエラーが発生します。

    タスクのソース テーブルが構成されたときに、カスタム変数 $(daytime) を使用してパーティション値を指定しましたが、データ同期ノードのパラメータ構成で daytime 変数に値を割り当てることができませんでした

  • 12

    Alibaba11-12 データ開発に DataWorks を使用する場合、通常はデータの抽出、変換、ロード、つまり ETL プロセスを実行する必要があります。データの抽出とロードは、データ同期ノードを使用して実装できます。データ同期に関する次の記述のうち、間違っているものはどれですか。

    ミリ秒レベルのデータ同期がサポートされています

  • 13

    Alibaba11-13 DataWorks では、ワークフロー タスクは 1 回限りのスケジュールと定期的なスケジュールをサポートしています。定期的なスケジュールでは、異なる時間粒度のスケジュール サイクルを設定できます。たとえば、Task1 を毎週月曜日に実行するようにスケジュールできます。次の記述のうち正しいものはどれですか。

    タスク 1 は毎日スケジュールされていますが、月曜日にのみ実行されます。システムもインスタンスを生成しますが、実際にロジックを実行したりリソースを占有したりすることなく、インスタンスを正常に実行するように設定しているだけです

  • 14

    Alibaba11-14 DataWorks では、SQL Task1 は毎日スケジュールされた定期タスクであり、パーティション テーブル Table1 を生成します。実行ごとにパーティションが生成され、パーティション値は前月の最終日の日付です (パーティション名は ds、形式は yyyymmdd)。スケジュール システムによって提供される時間パラメータを使用して Table1 パーティションを定義し、Task1 のスケジュールされた実行ごとに時間値が自動的に置き換えられるようにするには、Task1 をどのように構成すればよいでしょうか。

    タスク 1 は、毎月 31 日に実行されるようにスケジュールされています。コードでは、Table1 パーティション ds=${bdp.system.cyctime}

  • 15

    Alibaba11-15 DataWorks では、SQL Task1 は毎日スケジュールされた定期タスクです。Task1 は、Task1 が実行されるたびに、Table2 のパーティションのデータを使用します (Table2 パーティション フィールド名は ds、形式は yyyymmdd)。Table2 パーティションの値は、現在の営業日の月の最初の日です (たとえば、実行時間が 2018 年 5 月 10 日の場合、営業日は 20180509、Table2 パーティションの値は 20180501 になります)。スケジュール システムによって提供される時間パラメータを使用して、Table2 パーティションを定義し、Task1 のスケジュールされた実行ごとに時間値が自動的に置き換えられるようにするには、Task1 をどのように構成すればよいですか。

    Task1 コードでは、表 2 のパーティション ds=${var}01' とパラメータ構成: var=S[yyyymm-1]

  • 16

    Alibaba11-16 ある企業がデータ ウェアハウスの構築に MaxCompute を選択しました。1 人以上の担当者が実装と運用管理 (O&M) を担当しています。役割の分割、データ権限、複数ユーザーの調整、その他の管理作業を改善し、同時に自動タスク スケジューリング、タスク監視、エラーの警告と処理などの O&M 作業も実装し、シンプルで使いやすい開発環境が必要な場合、次のソリューションのうちどれが最も便利で効率的でしょうか。

    DataWorks を開発ツールとして使用できます

  • 17

    Alibaba11-17 金融サービス会社は、顧客取引データを MaxCompute に保存する必要があり、金額は小数点以下 2 桁まで正確である必要があります。このシナリオでは、XXX タイプが最適です。

    Decimal

  • 18

    Alibaba11-18 MaxCompute の管理者は、従業員のユーザー 1 とユーザー 2 にマルチテナント権限管理を展開し、割り当てられた権限に従ってデータ操作を実行できるようにしたいと考えています。以下のヒントを参照して、期待される結果について判断してください。 前提条件: 1. クラウド RAM サブアカウントを 2 つ作成: user1@aliyun.com と user2@aliyun.com 2. アカウント user1@aliyun.com と user2@aliyun.com を使用して、MaxCompute プロジェクトを 2 つ作成: odps1 と odps2 3. MaxCompute 所有者アカウント user1@aliyun.com と user2@aliyun.com の AccessKey をそれぞれ使用して、プロジェクト admin_task_project、odps1、odps2 の構成ファイル odps_config.admin、odps_config.odps1、odps_config.odps2 を構成します テスト手順: 1. odps1 にアクセスします ./odpscmd –config=../conf/odps_config.odps1 create table test(id bigint,name string); tunnel upload /tmp/data.txt test; 2. odps2 にアクセスします ./odpscmd –config=../conf/odps_config.odps2 select * from odps1.test; 3. admin_task_project プロジェクトにアクセスして、user2@aliyun.com アカウントを承認します /odpscmd –config=../conf/odps_config.admin use odps2; ユーザーを一覧表示します。odps2 のアカウント ALIYUN$user2@aliyun.com を表示します use odps1; ユーザー ALIYUN$user2@aliyun.com を追加します。 テーブル test でユーザー ALIYUN$user2@aliyun.com に describe、select を付与します。 ALIYUN$user2@aliyun.com の付与を表示します。 4. 手順 2 を繰り返します: user2@aliyun.com を設定して、テスト テーブルからデータを読み取ろうとします 5. user2@aliyun.com を設定して、テスト テーブルからデータを削除しようとします drop table odps1.test; 次の説明のうち、間違っているものはどれですか。

    ステップ 3 で、user2@aliyun.com はテスト テーブルからデータを読み取ろうとしますが、読み取り操作は成功し、通常の結果が返されます

  • 19

    Alibaba11-19 E-MapReduce HBase クラスターは、HBase の組み込み XXX 機能を使用して HBase テーブルをバックアップし、バックアップ データを Alibaba Cloud Object Storage Service (OSS) にエクスポートできます。

    Snapshot

  • 20

    Alibaba11-20 E-MapReduce Hive では、次の SQL ステートメントを使用して、OSS からデータをロードするための外部テーブルを作成しました: CREATE EXTERNAL TABLE storage_log(content STRING) PARTITIONED BY (ds STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t’ STORED AS TEXTFILE LOCATION ‘oss://log-124531712/biz-logs/airtake/pro/storage’; 次に、期待どおりにデータが表示されるかどうかを確認するためにクエリを発行しました: hive> select * from storage_log; OK 所要時間: 0.3 秒 外部テーブルを使用してデータが取得されていません Hive によって作成された外部テーブルを使用してデータを取得できない理由として考えられるものは何ですか?

    Hive が検索できるパーティション ディレクトリがありません

  • 21

    Alibaba11-21 金融サービス会社は、顧客取引データを MaxCompute に保存する必要があり、金額は小数点以下 2 桁まで正確である必要があります。このシナリオでは、XXX タイプが最適です。

    Decimal

  • 22

    Alibaba11-22 E-MapReduce クラスターは、LDAP を介してアカウント システムを管理する LDAP ベースの認証をサポートします。Kerberos クライアントは、認証の ID 情報として LDAP アカウント情報を使用します。LDAP アカウントは、Hue などの他のサービスと共有できます。E-MapReduce クラスターで構成された LDAP サービス (ApacheDS 内) を使用することも、既存の LDAP サービスを使用することもできます。必要なのは、XXX で構成することだけです。

    Kerberos server

  • 23

    Alibaba11-23 E-MapReduce の次のデーモンまたはサービスのうち、ストリーミングとメッセージ キャッシュを実装するために使用されるものはどれですか。

    Kafka

  • 24

    Alibaba11-24 Alibaba E-MapReduce (EMR) に含まれる Apache Spark は、高速で汎用的なクラスター コンピューティング システムです。Java、Scala、Python、R の高レベル API と、一般的な実行グラフをサポートする最適化されたエンジンを提供します。また、豊富な高レベル ツール セットもサポートしています。次のツールのうち、Spark に含まれていないものはどれですか。

    TensorFlow for Al

  • 25

    Alibaba11-25 E-MapReduce クラスターには、マスター、コア、XXX の 3 種類のノード インスタンスがあります。

    Task

  • 26

    Alibaba11-26 会社 A は、社会保障番号から「出生州」などの情報を抽出する必要があります。このシナリオに適した UDF のタイプはどれですか?

    ユーザー定義スカラー関数

  • 27

    Alibaba11-27 MaxCompute トンネル コマンドを使用して log.txt ファイルを t_log テーブルにアップロードする場合、t_log はパーティション テーブルであり、パーティション列は (p1 文字列、p2 文字列) です。次のコマンドのうち正しいものはどれですか。

    Tunnel upload log.txt t_log/p1="b1",p2="b2"

  • 28

    Alibaba11-28 顧客が MaxCompute サービスとコンソールを導入して構成したら、次の手順で基本的な機能テストを行うことができます。 MaxCompute 管理コンソールを起動し、次の操作を実行します。 1. vim /tmp/data.txt コマンドを実行して、ファイル data.txt を作成します。 data.txt ファイルに次のデータを入力します。 1 1,a 2 2,b 3 3,c 2. cd $ODPSCMD_HOME/odps_tools/clt/bin/ コマンドを実行します。 3. ./odpscmd コマンドを実行します。 create table test(id int,name string); _________________ 4. select count(1) from test; コマンドを実行します。期待される結果 1 が表示されます。 5. select * from test; コマンドを実行します。期待される結果 2 が表示されます 期待される結果: 結果 1: テーブル テストの行数が表示されます 結果 2: テーブル テストのデータが出力されます 空欄を埋めるのに最適なのは次のうちどれですか?

    tunnel upload /tmp/data.txt test;

  • 29

    Alibaba11-29 MaxCompute は、プロジェクト レベルの強制アクセス制御 (MAC) 戦略であるラベルベースのセキュリティ (Label Security) をサポートしています。これにより、プロジェクト管理者は機密データへのユーザー アクセスをより柔軟に制御できるようになります。Label Security が制御できる最小の粒度はどのくらいですか?

    Column

  • 30

    Alibaba11-30 MaxCompute (旧称 ODPS) MapReduce は、分散プログラミング フレームワークを提供します。次の MaxCompute オブジェクトのうち、MR の入力および出力として機能できるものはどれですか。

    Tables

  • 31

    Alibaba11-31 DataWorks の FTP データ ソースを使用すると、FTP へのデータの読み取り/書き込みが可能になり、ウィザード モードとスクリプト モードでの同期タスクの構成がサポートされます。

    TRUE

  • 32

    Alibaba11-32 DataWorks を使用すると、あらゆる種類のタスクを作成し、必要に応じてスケジュール サイクルを構成できます。スケジュール サイクルでサポートされている粒度レベルには、日、週、月、時間、分、秒が含まれます。

    FALSE

  • 33

    Alibaba11-33 ツールバーのウィジェット メニューからキャンバスに追加するウィジェットを選択できます。現在、サードパーティのウィジェットを除いて、さまざまな種類のウィジェットが DataV でサポートされています。

    TRUE

  • 34

    Alibaba11-34 DataWorks では、Operation&Management (O&M) センターの [タスクの管理] ビューに表示されるタスクには実行ステータスがありません。

    FALSE

  • 35

    Alibaba11-35 DataWorks では、仮想ノードはドライ ラン ノードです。つまり、タスクの成功ステータスを返しますが、実際にはタスクを実行しません。スケジュールされた 2 つの定期タスク Task1 と Task2 の間には依存関係はなく、2 つのタスクは上流タスクを共有しません。統合管理のために 1 つの親タスクを共有する場合は、Task1 と Task2 の上流タスクとして仮想ノードを作成できます。

    TRUE

  • 36

    Alibaba11-36 Realtime Compute がデータ ストレージ リソースにアクセスできるようにするには、事前に Realtime Compute にこれらのリソースにアクセスする権限を付与する必要があります。

    TRUE

  • 37

    Alibaba11-37 DataV の「公開」パネルには、認証用の「アクセス トークン」機能があり、この機能は HMAC-SHA256 base64 暗号化に基づいています。

    TRUE

  • 38

    Alibaba11-38 DataWorks データ同期タスクでは、すべてのデータ ソースでソース テーブル内の整数列を分割キーとして選択して、データ同期の効率を向上させることができます。

    FALSE

  • 39

    Alibaba11-39 DataWorks では、タスクが毎週月曜日に実行されるようにスケジュールされている場合、タスクは火曜日から日曜日まで毎日実行されますが、火曜日から日曜日までのスケジュールされた実行はすべてドライ ランであり、実際には実行されずに成功が返されます。

    TRUE

  • 40

    Alibaba11-40 DataWorks では、最小のスケジュール サイクル粒度は 1 分です。

    TRUE

  • 41

    Alibaba11-41 MaxCompute のパーティション テーブルの場合、INSERT OVERWRITEステートメントを使用してパーティション内のデータを更新する前に、ターゲット パーティションが存在している必要があります。

    FALSE

  • 42

    Alibaba11-42 プロジェクトの所有者である Alice が別のユーザーを承認することに決めた場合、そのユーザーをプロジェクトに追加する必要があります。プロジェクトに追加されたユーザーのみが承認されます。

    TRUE

  • 43

    Alibaba11-43 システムは、過去 24 時間の MaxCompute サービス請求書の平均支払額に基づいて、アカウント残高が次の 3 つの請求サイクルの MaxCompute サービスの支払いに十分であるかどうかを判断します。十分でない場合は、システムから SMS/電子メールによるリマインダーが送信されます。

    FALSE

  • 44

    Alibaba11-44 サブスクリプション E-MapReduce クラスターの有効期限が切れそうになったら、E-MapReduce クラスター サービスを引き続き使用するには、更新する必要があります。クラスターの更新には、ECS インスタンスの更新のみが含まれます。

    FALSE

  • 45

    Alibaba11-45 E-MapReduce の Kerberos は、内部リージョン アクセスのみをサポートします。

    FALSE

  • 46

    Alibaba11-46 SmartData が提供する E-MapReduce の JindoFS は、ストレージ バックエンドとして OSS を使用します。

    TRUE

  • 47

    Alibaba11-47 タスクは、MaxCompute の基本的な計算単位です。計算タスク (select など) や非計算タスク (desc など) などのすべてのタスクは、実行中にインスタンス化されます。ユーザーは、インスタンス ID を通じて実行中にタスク情報を取得できます。

    TRUE

  • 48

    Alibaba11-48 MaxCompute でビューを作成するには、作成者は参照するテーブルに対する読み取り権限を持っている必要があります。

    TRUE

  • 49

    Alibaba11-49 MaxCompute は、Hadoop MapReduce ジョブに対して、ある程度のバイナリ レベルの互換性をすでに提供しています。つまり、コードを変更することなく、元の Hadoop MapReduce JAR パッケージを MaxCompute で直接実行するための構成を指定できます。

    TRUE

  • 50

    Alibaba11-50 リソースは MaxCompute の特別な概念です。ユーザー定義関数 UDF または MapReduce を使用する場合は、リソースが必要です。

    TRUE

  • 51

    Alibaba11-51 DataWorks では、データ同期タスクは正常に実行されましたが、宛先テーブルが空です。次の記述のうち正しいものはどれですか? (正解数: 2)

    エラー許容エントリの最大数が構成されている場合、つまり「エラー レコードの数が超過した場合」の値で、ソース テーブル内の抽出の適合レコードの数が現在構成されているエラー許容エントリの最大数よりも少なく、すべてのレコードで同期エラーが発生した場合、同期タスク全体のステータスは「実行成功」になりますが、宛先テーブルは空になります, 特定の実行ログとログ内の特定のソース テーブルの情報を確認します。チェックにより、抽出条件を満たすデータ レコードの数が 0 であることが示されます

  • 52

    Alibaba11-52 DataWorks Data Quality Control は DataSet を監視します。現在、Data Quality は XXX の監視をサポートしています (正解数: 2)

    MaxCompute data tables, DataHub real-time data streams

  • 53

    Alibaba11-53 E-MapReduce を使用する場合、ユーザーは oss:// と ossref:// の 2 種類の OSS URI を使用できます。これらの 2 種類について正しいのは次のうちどれですか? (正解数: 2)

    oss://prefix url は、ジョブの入力および出力データ ソースを指定するために使用されます。これは hd​​fs:// に似ています, ossref://prefix url は、E-MapReduce ジョブの構成でのみ有効であり、ジョブの実行に必要なリソースを指定するために使用されます

  • 54

    Alibaba11-54 DataWorks では、スケジュールされたタスクが実行される前にタスクがインスタンス化されます。つまり、インスタンスが生成され、実行されて、スケジュールされたタスクが実行されます。O&M センターのタスク操作と管理 (O&M) ビューに表示されるインスタンスは、タスクによって自動的にスケジュールされます。インスタンスに対して XXX を実行できます。(正解数: 2)

    Viewing node run logs, Re-running and resuming scheduling

  • 55

    Alibaba11-55 E-MapReduce は、次の 3 種類のリアルタイム コンピューティング サービスを提供します (正解数: 3)

    Spark Streaming, Flink, Storm

  • 56

    Alibaba11-56 MaxCompute トンネル コマンドの fd パラメータを使用して、列区切り文字を指定できます。fd 値に関する次の記述のうち正しいものはどれですか? (正解数: 3)

    複数の文字を区切り文字として使用できます, 列区切り文字と行区切り文字を同じにすることはできません, デフォルト値はコンマです

  • 57

    Alibaba11-57 DataV では、各視覚化プロジェクトの公開パネルを見つけることができます。特定のプロジェクトの公開ステータスを示すスイッチがあります。スイッチがオンの場合、プロジェクトは Web ページとして公開されており、スイッチがオフの場合、公開機能は 3 つのモデルで利用できます。(正解数: 3)

    アクセス トークンで共有, パスワードで共有, パブリック共有

  • 58

    Alibaba11-58 MaxCompute (旧 ODPS) の関数 CAST を使用してデータ型を変換できますが、次のどの変換がサポートされていますか? (正解数: 3)

    bigint を double に変換, bigint を文字列に変換, datetime を文字列に変換

  • 59

    Alibaba11-59 DataV で視覚化プロジェクトを作成する場合は、まず生データのソースを指定する必要があります。データ ソースとは、生データが存在する場所です。DataV は、いくつかの種類のデータ ソースをサポートしています:(正解数: 3)

    データベース, CSV, 静的 JSON

  • 60

    Alibaba11-60 fact_order は MaxCompute のパーティション テーブルです。テーブル作成ステートメントは次のとおりです: create table fact_order( order_id string, user_id string, order_date datetime, order_amt 10 進数) partitioned by (dt string); 開発者はデータ チェック中に次のステートメントを使用して一時テーブルを作成します: create table tmp_order as select * from fact_order where dt=’20180310’ and order_amt>100; テーブル fact_order には 100 万件の一致するレコードがあります。このステートメントの結果の正しい説明は XXX です。(正解数: 2)

    tmp_order テーブルが作成され、select ステートメントの結果データが含まれます, tmp_order は非パーティション テーブルです