日本熟妇hd丰满老熟妇,中文字幕一区二区三区在线不卡 ,亚洲成片在线观看,免费女同在线一区二区

GetSparkAppInfo - 查詢(xún)Spark應(yīng)用的信息

查看Spark應(yīng)用的信息。

接口說(shuō)明

  • 地域的公網(wǎng)接入地址:adb.<region-id>.aliyuncs.com。示例:adb.cn-hangzhou.aliyuncs.com
  • 地域的 VPC 接入地址:adb-vpc.<region-id>.aliyuncs.com。示例:adb-vpc.cn-hangzhou.aliyuncs.com
說(shuō)明 如果華北 1(青島)、華南 1(深圳)、華南 3(廣州)、中國(guó)香港發(fā)起請(qǐng)求時(shí),遇到 409 錯(cuò)誤,請(qǐng)聯(lián)系技術(shù)支持。

調(diào)試

您可以在OpenAPI Explorer中直接運(yùn)行該接口,免去您計(jì)算簽名的困擾。運(yùn)行成功后,OpenAPI Explorer可以自動(dòng)生成SDK代碼示例。

授權(quán)信息

當(dāng)前API暫無(wú)授權(quán)信息透出。

請(qǐng)求參數(shù)

名稱(chēng)類(lèi)型必填描述示例值
AppIdstring

應(yīng)用 ID。

說(shuō)明 您可以調(diào)用 ListSparkApps 接口查詢(xún) Spark 應(yīng)用的 ID。
s202205201533hz1209892000****
DBClusterIdstring

企業(yè)版、基礎(chǔ)版或湖倉(cāng)版集群 ID。

說(shuō)明 您可以調(diào)用 DescribeDBClusters 接口查看集群的集群 ID。
am-bp11q28kvl688****

返回參數(shù)

名稱(chēng)類(lèi)型描述示例值
object
RequestIdstring

請(qǐng)求 ID。

D65A809F-34CE-4550-9BC1-0ED21ETG380
DataSparkAppInfo

Spark 應(yīng)用的信息。返回參數(shù)說(shuō)明:

  • Data:Spark 應(yīng)用模板數(shù)據(jù)。
  • EstimateExecutionCpuTimeInSeconds:執(zhí)行 Spark 應(yīng)用消耗 CPU 的時(shí)長(zhǎng),單位毫秒(ms)。
  • LogRootPath:日志文件存儲(chǔ)路徑。
  • LastAttemptId:重試 ID。
  • WebUiAddress:Web UI 地址。
  • SubmittedTimeInMillis:提交 Spark 應(yīng)用的時(shí)間,Unix 時(shí)間戳,單位毫秒(ms)。
  • StartedTimeInMillis:Spark 應(yīng)用的創(chuàng)建時(shí)間,Unix 時(shí)間戳,單位毫秒(ms)。
  • LastUpdatedTimeInMillis:最近一次更新 Spark 應(yīng)用的時(shí)間,Unix 時(shí)間戳,單位毫秒(ms)。
  • TerminatedTimeInMillis:Spark 應(yīng)用終止執(zhí)行的時(shí)間,Unix 時(shí)間戳,單位毫秒(ms)。
  • DBClusterId:執(zhí)行 Spark 應(yīng)用的集群 ID。
  • ResourceGroupName:Job 型資源組名稱(chēng)。
  • DurationInMillis:Spark 應(yīng)用執(zhí)行耗時(shí),單位毫秒(ms)。
{ \"name\": \"SparkPi\", \"file\": \"local:///tmp/spark-examples.jar\", \"className\": \"org.apache.spark.examples.SparkPi\", \"args\": [ \"1000000\" ], \"conf\": { \"spark.driver.resourceSpec\": \"small\", \"spark.executor.instances\": 1, \"spark.executor.resourceSpec\": \"small\" } }", "EstimateExecutionCpuTimeInSeconds" : 100, "LogRootPath" : "oss://test/logs/driver", "LastAttemptId" : "s202204291426hzpre60cfabb0000004-0003", "WebUiAddress" : "https://sparkui.aliyuncs.com/token=xxx", "SubmittedTimeInMillis" : 1651213645000, "StartedTimeInMillis" : 1651213645010, "LastUpdatedTimeInMillis" : 1651213645200, "TerminatedTimeInMillis" : 1651213645300, "DBClusterId" : "am-dbclusterid", "ResourceGroupName" : "spark-rg", "DurationInMillis" : 100 }

示例

正常返回示例

JSON格式

{
  "RequestId": "D65A809F-34CE-4550-9BC1-0ED21ETG380",
  "Data": {
    "AppId": "s202207151211hz0c****",
    "AppName": "SparkTest",
    "Priority": "NORMAL",
    "State": "SUBMITTED",
    "Message": "WARN: Disk is full.",
    "Detail": {
      "Data": "{     \"name\": \"SparkPi\",     \"file\": \"local:///tmp/spark-examples.jar\",     \"className\": \"org.apache.spark.examples.SparkPi\",     \"args\": [         \"1000000\"     ],     \"conf\": {         \"spark.driver.resourceSpec\": \"small\",         \"spark.executor.instances\": 1,         \"spark.executor.resourceSpec\": \"small\"     } }",
      "EstimateExecutionCpuTimeInSeconds": 100,
      "LogRootPath": "oss://<bucket-name>/logs/driver",
      "LastAttemptId": "s202204291426hzpre60****-0003",
      "WebUiAddress": "https://adbsparkui-cn-hangzhou.aliyuncs.com/?token=****",
      "SubmittedTimeInMillis": 1651213645000,
      "StartedTimeInMillis": 1651213645010,
      "LastUpdatedTimeInMillis": 1651213645200,
      "TerminatedTimeInMillis": 1651213645300,
      "DBClusterId": "amv-bp11q28kvl688****",
      "ResourceGroupName": "spark-rg",
      "DurationInMillis": 100,
      "AppType": "BATCH"
    },
    "DBClusterId": "amv-23xxxx"
  }
}

錯(cuò)誤碼

HTTP status code錯(cuò)誤碼錯(cuò)誤信息描述
400Spark.InvalidParameterInvalid parameter value: %s輸入?yún)?shù)不正確。
400Spark.InvalidStateThe object of the operation is in an invalid state: %s操作對(duì)象處于非合法狀態(tài)。
400Spark.AnalyzeTask.AppStateNotAcceptedOnly Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement.只允許分析處于終止?fàn)顟B(tài)的 Spark app。指定 app 不滿(mǎn)足條件。
400Spark.AnalyzeTask.FailedToKillFailed to terminate the Spark log analysis task %s, because the task status has changed. Obtain the latest status and try again.殺死Spark日志分析任務(wù)的請(qǐng)求執(zhí)行失敗,因?yàn)閷?duì)應(yīng)任務(wù)狀態(tài)已經(jīng)發(fā)生了變化。請(qǐng)獲取分析任務(wù)最新?tīng)顟B(tài)后執(zhí)行。
400Spark.AnalyzeTask.InvalidStateWhenAnalyzingAppOnly logs of Spark applications in the terminated state can be analyzed. The specified application %s does not meet the requirement.僅允許針對(duì)處于終止?fàn)顟B(tài)的Spark作業(yè)執(zhí)行日志分析程序。當(dāng)前作業(yè)不滿(mǎn)足條件。
400Spark.App.InvalidResourceSpecThe requested resource type is not supported:\n %s-
400Spark.App.KillOperationFailedFailed to kill the application %s, please retry in a few seconds.殺死 Spark 應(yīng)用失敗,請(qǐng)稍后重試。
400Spark.App.ParameterConflictConflicting parameters submitted:\n %s-
400Spark.Config.invalidConnectorsThe spark.adb.connectors configuration is invalid: %sspark.adb.connectors配置不正確。
400Spark.Config.RoleArnVerifyFailedRoleARN parameter verification failed. Error msg: %s when verify RoleArn %sRoleARN參數(shù)校驗(yàn)失敗。
400Spark.Log.IllegalPathInvalid job log URI: %s.配置的Spark日志路徑不合法:%s。
400Spark.Log.InvalidStateFailed to obtain the logs of the Spark job %s in the %s state.無(wú)法獲取指定Spark作業(yè)的日志。
400Spark.Oss.InternalErrorAn OSS internal error occurred: %sOSS內(nèi)部錯(cuò)誤,請(qǐng)求失敗。
400Spark.RoleArn.Invalid%s is not found, or the RAM role has not been authorized.RoleArn不存在或子賬號(hào)未授權(quán)。
400Spark.SQL.NotFoundExecutableSQLErrorNo executable statements are submitted. Please check the input SQL.Spark作業(yè)的SQL信息中不包含可執(zhí)行語(yǔ)句。
400Spark.SQL.ParserErrorFailed to parse the SQL %s. Error message: %s.Spark作業(yè)信息中的SQL無(wú)法解析。
400Spark.TemplateFile.BadFileTypeThe requested template %s is not a file.請(qǐng)求的模板文件ID不是文件類(lèi)型的。
403Spark.ForbiddenNo permissions to access the resources: %s權(quán)限不足,拒絕訪問(wèn)相關(guān)資源。您當(dāng)前申請(qǐng)?jiān)L問(wèn)的信息是:%s。
404Spark.AnalyzeTask.NotFoundThe requested analysis task %s is not found.請(qǐng)求查看的日志分析任務(wù) %s 不存在。
404Spark.App.ContentNotFoundThe requested content %s of the Spark application is not found.找不到指定Spark作業(yè)的提交內(nèi)容。
404Spark.Log.PodLogNotFoundCan't find logs of the pod by podName[%s] in the namespace[%s].無(wú)法通過(guò)podName找到對(duì)應(yīng)pod的日志。
404Spark.ObjectNotFoundThe object is not found. More information: %s操作對(duì)象不存在。關(guān)聯(lián)信息:%s。
404Spark.TemplateFile.FileNotFoundThe template file %s is not found.未能找到輸入的模板文件。
404Spark.TemplateFile.TemplateNotFoundThe template %s is not found.模板文件未找到。
406Spark.App.KillNotAcceptableCan't kill the application %s in %s state.不能刪除處于不可刪除狀態(tài)下的 Spark 應(yīng)用。
500Spark.ServerErrorThe Spark control component system encountered an error, please create a ticket to solve the problem or concat the supported engineer on duty. Error message: %sSpark管控組件系統(tǒng)遇到錯(cuò)誤,請(qǐng)?zhí)峤还危蚵?lián)系值班工程師。
500Spark.Resources.LoadFileFromClasspathFailedCan't load the content from file: %s加載資源文件失敗。

訪問(wèn)錯(cuò)誤中心查看更多錯(cuò)誤碼。

變更歷史

變更時(shí)間變更內(nèi)容概要操作
2023-11-24OpenAPI 錯(cuò)誤碼發(fā)生變更、OpenAPI 入?yún)l(fā)生變更查看變更詳情
2023-06-28OpenAPI 錯(cuò)誤碼發(fā)生變更查看變更詳情