WWY719のブログ

自分の好きなことをお話したいなーと思ってます。

Databricks REST API について (備忘録) _ part 2

さあ、頑張って続きを書いていきます。

 

あと必要な知識は一つ。

JSON ファイルの記述方法です。

JSON は、Java Script Object Notation の略だそうです。

簡単にいえば表ですが、Excel で作成するようなものとは形式が違うので確認が必要です。

 

試しに Create new cluster で使用した JSON を記載してみるとこんな感じです。

{"num_workers": 0, "cluster_name": "test_cluster", "spark_version": "13.3.x-scala2.12", "node_type_id": "Standard_DS3_v2", "autotermination_minutes": 10, "policy_id": "0018E8D9BFF55262", "data_security_mode": "SINGLE_USER", "single_user_name": "koiyan skype"}

これを見やすく整理するとこんな感じです。

{

  "num_workers": 0,

  "cluster_name": "test_cluster",

  "spark_version": "13.3.x-scala2.12",

  "node_type_id": "Standard_DS3_v2",

  "autotermination_minutes": 10,

  "policy_id": "0018E8D9BFF55262",

  "data_security_mode": "SINGLE_USER",

  "single_user_name": "koiyan skype"

}

こんな感じで、: を挟んで左側にキーを入力して、右側に値を入力します。

数字とか、true, faulse 以外は "" で囲って記述します。

詳しいルールは記述するときに調べればすぐに出てきます。

それは Databricks に関係なく、JSON の書き方です。

 

複数の情報があるので、情報同士は , で区切ります。

最後は区切る必要がないので、, がありません。

 

これで、必要な知識は揃いました。

クラスターを作成するためのコードはこんな感じ。

curl --request POST "https://adb-xxxxxxxxxxxxxxxx.x.azuredatabricks.net/api/2.0/clusters/create" --header "Authorization: Bearer dapixxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx" --data '{"num_workers": 0, "cluster_name": "test_cluster", "spark_version": "13.3.x-scala2.12", "node_type_id": "Standard_DS3_v2", "autotermination_minutes": 10, "policy_id": "0018E8D9BFF56493", "data_security_mode": "SINGLE_USER", "single_user_name": "user_name"}'

 

試しにこれをシェルスクリプトとして保存して、実行してみたら、クラスターが作成されました。

 

というわけで、今回は Databricks API の備忘録でした。

繰り返しになりますが、自分が学習した範囲の内容ですので、余計なこともあるかもしれないですし、間違ったことを書いている可能性もあります。

これを使用して、損害などが発生しても当方は責任を負いませんので、自己責任で学習を進めてください。

 

と、身の上の保険をかけたところで今回はこの辺で終わります。

お疲れ様でした。