查詢Spark的通用定義內容。
接口說明
- 地域的公網接入地址:
adb.<region-id>.aliyuncs.com
。示例:adb.cn-hangzhou.aliyuncs.com
。 - 地域的 VPC 接入地址:
adb-vpc.<region-id>.aliyuncs.com
。示例:adb-vpc.cn-hangzhou.aliyuncs.com
。
說明
如果華北 1(青島)、華南 1(深圳)、華南 3(廣州)、中國香港發(fā)起請求時,遇到 409 錯誤,請聯系技術支持。
調試
您可以在OpenAPI Explorer中直接運行該接口,免去您計算簽名的困擾。運行成功后,OpenAPI Explorer可以自動生成SDK代碼示例。
授權信息
當前API暫無授權信息透出。
請求參數
名稱 | 類型 | 必填 | 描述 | 示例值 |
---|---|---|---|---|
DBClusterId | string | 否 | 企業(yè)版、基礎版或湖倉版集群 ID。 | amv-bp1r77u35w0**** |
返回參數
示例
正常返回示例
JSON
格式
{
"RequestId": "D65A809F-34CE-4550-9BC1-0ED21ETG380",
"Data": "{\"SQLTemplateExample\": \"-- Here is just an example of SparkSQL. Modify the content and run your spark program.\nconf spark.driver.resourceSpec=medium;\nconf spark.executor.instances=2;\nconf spark.executor.resourceSpec=medium;\nconf spark.app.name=Spark SQL Test;\nconf spark.adb.connectors=oss;\n\n-- Here are your sql statements\nshow databases;\",\n \"BatchTemplateExample\": \"{\n \"comments\": [\n \"-- Here is just an example of SparkPi. Modify the content and run your spark program.\"\n ],\n \"args\": [\"1000\"],\n \"file\":\"local:///tmp/spark-examples.jar\",\n \"name\": \"SparkPi\",\n \"className\": \"org.apache.spark.examples.SparkPi\",\n \"conf\": { \"spark.driver.resourceSpec\": \"medium\",\n \"spark.executor.instances\": 2,\n \"spark.executor.resourceSpec\": \"medium\"\n }\n}\"\n"
}
錯誤碼
HTTP status code | 錯誤碼 | 錯誤信息 | 描述 |
---|---|---|---|
400 | Spark.InvalidParameter | Invalid parameter value: %s | 輸入參數不正確。 |
400 | Spark.InvalidState | The object of the operation is in an invalid state: %s | 操作對象處于非合法狀態(tài)。 |
400 | Spark.AnalyzeTask.AppStateNotAccepted | Only Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement. | 只允許分析處于終止狀態(tài)的 Spark app。指定 app 不滿足條件。 |
400 | Spark.AnalyzeTask.FailedToKill | Failed to terminate the Spark log analysis task %s, because the task status has changed. Obtain the latest status and try again. | 殺死Spark日志分析任務的請求執(zhí)行失敗,因為對應任務狀態(tài)已經發(fā)生了變化。請獲取分析任務最新狀態(tài)后執(zhí)行。 |
400 | Spark.AnalyzeTask.InvalidStateWhenAnalyzingApp | Only logs of Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement. | 僅允許針對處于終止狀態(tài)的Spark作業(yè)執(zhí)行日志分析程序。當前作業(yè)不滿足條件。 |
400 | Spark.App.InvalidResourceSpec | The requested resource type is not supported:\n %s | - |
400 | Spark.App.ParameterConflict | Conflicting parameters submitted:\n %s | - |
400 | Spark.Config.invalidConnectors | The spark.adb.connectors configuration is invalid: %s | spark.adb.connectors配置不正確。 |
400 | Spark.Config.RoleArnVerifyFailed | RoleARN parameter verification failed. Error msg: %s when verify RoleArn %s | RoleARN參數校驗失敗。 |
400 | Spark.Log.InvalidState | Failed to obtain the logs of the Spark job %s in the %s state. | 無法獲取指定Spark作業(yè)的日志。 |
400 | Spark.SQL.NotFoundExecutableSQLError | No executable statements are submitted. Please check the input SQL. | Spark作業(yè)的SQL信息中不包含可執(zhí)行語句。 |
400 | Spark.SQL.ParserError | Failed to parse the SQL %s. Error message: %s. | Spark作業(yè)信息中的SQL無法解析。 |
404 | Spark.AnalyzeTask.NotFound | The requested analysis task %s is not found. | 請求查看的日志分析任務 %s 不存在。 |
404 | Spark.App.ContentNotFound | The requested content %s of the Spark application is not found. | 找不到指定Spark作業(yè)的提交內容。 |
404 | Spark.ObjectNotFound | The object is not found. More information: %s | 操作對象不存在。關聯信息:%s。 |
404 | Spark.TemplateFile.FileNotFound | The template file %s is not found. | 未能找到輸入的模板文件。 |
404 | Spark.TemplateFile.TemplateNotFound | The template %s is not found. | 模板文件未找到。 |
500 | Spark.ServerError | The Spark control component system encountered an error, please create a ticket to solve the problem or concat the supported engineer on duty. Error message: %s | Spark管控組件系統遇到錯誤,請?zhí)峤还危蚵撓抵蛋喙こ處煛?/span> |
500 | Spark.Resources.LoadFileFromClasspathFailed | Can't load the content from file: %s | 加載資源文件失敗。 |
訪問錯誤中心查看更多錯誤碼。
變更歷史
變更時間 | 變更內容概要 | 操作 |
---|---|---|
2023-06-28 | OpenAPI 錯誤碼發(fā)生變更 | 查看變更詳情 |