本文說明如何創建云原生數據湖分析(Data Lake Analytics)Sink Connector,簡稱DLA Sink Connector,實現將云消息隊列 Kafka 版數據同步至DLA分析計算。
前提條件
- 云原生數據湖分析(DLA)
- 已開通云原生數據湖分析服務。更多信息,請參見開通云原生數據湖分析服務。
- 已創建Spark引擎的虛擬集群。更多信息,請參見創建虛擬集群。
- 如果您使用RAM用戶登錄,需要授予RAM用戶AliyunDLAFullAccess權限。更多信息,請參見為RAM賬號授權。
- 如果您使用RAM用戶登錄,需要將DLA子賬號綁定到RAM用戶。更多信息,請參見DLA子賬號綁定RAM賬號。
- 云消息隊列 Kafka 版
創建DLA Sink Connector
- 登錄云消息隊列 Kafka 版控制臺。
- 在概覽頁面的資源分布區域,選擇地域。
- 在左側導航欄,單擊Connector 任務列表。
- 在Connector 任務列表頁面,從選擇實例的下拉列表選擇Connector所屬的實例,然后單擊創建 Connector。
- 在創建 Connector配置向導頁面,完成以下操作。
- 如果沒有創建湖倉, 跳轉至Lakehouse湖倉一體化頁面,創建入湖湖倉;如果已經創建湖倉,跳轉至新建工作負載頁面,在Kafka數據源頁簽,創建入湖工作負載,并啟用工作負載進行數據分析。具體操作,請參見Kafka實時入湖建倉分析。在云消息隊列 Kafka 版控制臺的Connector 任務列表頁面,您也可以查看創建的DLA Sink Connector任務。在操作列,還可以進行以下操作:
- 單擊詳情,您可以查看DLA Sink Connector任務的配置信息。
- 單擊查看任務,跳轉至Data Lake Analytics控制臺,啟用工作負載進行數據分析。
- 單擊刪除,您可以清理任務。