Hive使用JindoSDK處理OSS-HDFS服務中的數(shù)據(jù)
使用Hive搭建離線數(shù)倉時,隨著數(shù)據(jù)量的不斷增長,傳統(tǒng)的基于HDFS存儲的數(shù)倉可能無法以較低成本滿足用戶的需求。在這種情況下,您可以使用OSS-HDFS服務作為Hive數(shù)倉的底層存儲,并通過JindoSDK獲得更好的讀寫性能。
前提條件
已創(chuàng)建ECS實例。具體步驟,請參見選購ECS實例。
已開通并授權訪問OSS-HDFS服務。具體操作,請參見開通并授權訪問OSS-HDFS服務。
已自行部署Hive客戶端。
操作步驟
連接ECS實例。具體操作,請參見連接ECS實例。
配置JindoSDK。
下載最新版本的JindoSDK JAR包。下載地址,請參見GitHub。
解壓JindoSDK JAR包。
以下以解壓
jindosdk-x.x.x-linux.tar.gz
為例,如使用其他版本的JindoSDK,請?zhí)鎿Q為對應的JAR包名稱。tar zxvf jindosdk-x.x.x-linux.tar.gz
說明x.x.x表示JindoSDK JAR包版本號。
可選:如果您的環(huán)境中未包含Kerberos和SASL相關依賴,則需要在部署JindoSDK的所有節(jié)點安裝以下依賴。
Ubuntu或Debian
sudo apt-get install libkrb5-dev krb5-admin-server krb5-kdc krb5-user libsasl2-dev libsasl2-modules libsasl2-modules-gssapi-mit
Red Hat Enterprise Linux或CentOS
sudo yum install krb5-server krb5-workstation cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain
macOS
brew install krb5
將已下載的JindoSDK JAR包拷貝至Hive的classpath路徑下。
cp jindosdk-x.x.x-linux/lib/*.jar $HIVE_HOME/lib/
配置OSS-HDFS服務實現(xiàn)類及AccessKey。
將OSS-HDFS服務實現(xiàn)類配置到Hive的core-site.xml文件中。
<configuration> <property> <name>fs.AbstractFileSystem.oss.impl</name> <value>com.aliyun.jindodata.oss.JindoOSS</value> </property> <property> <name>fs.oss.impl</name> <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value> </property> </configuration>
將已開啟OSS-HDFS服務的Bucket對應的AccessKey ID、AccessKey Secret預先配置在Hive的core-site.xml文件中。
<configuration> <property> <name>fs.oss.accessKeyId</name> <value>LTAI******** </value> </property> <property> <name>fs.oss.accessKeySecret</name> <value>KZo1********</value> </property> </configuration>
配置OSS-HDFS服務Endpoint。
使用OSS-HDFS服務訪問OSS Bucket時需要配置Endpoint。推薦訪問路徑格式為
oss://<Bucket>.<Endpoint>/<Object>
,例如oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt
。配置完成后,JindoSDK會根據(jù)訪問路徑中的Endpoint訪問對應的OSS-HDFS服務接口。您還可以通過其他方式配置OSS-HDFS服務Endpoint,且不同方式配置的Endpoint存在生效優(yōu)先級。更多信息,請參見附錄一:配置Endpoint的其他方式。
重要完成以上配置后,您需要重啟Hive服務,使配置生效。
在終端使用以下命令連接Hive。
更多連接方式,請參見Hive連接方式。
hive
通過OSS-HDFS服務存儲數(shù)據(jù)。
創(chuàng)建數(shù)據(jù)庫和表時,您可以通過以下兩種方式指定OSS-HDFS服務路徑,將數(shù)據(jù)庫或表的數(shù)據(jù)保存到OSS-HDFS服務中。
方式一:在命令示例中指定OSS-HDFS服務路徑
創(chuàng)建數(shù)據(jù)庫時指定OSS-HDFS服務路徑
CREATE DATABASE db_on_oss1 LOCATION 'oss://bucket_name.endpoint_name/path/to/db1';
創(chuàng)建表時指定OSS-HDFS服務路徑
CREATE TABLE db2.table_on_oss ( id INT, name STRING, age INT ) LOCATION 'oss://bucket_name.endpoint_name/path/to/db2/tablepath';
方式二:在配置文件中指定OSS-HDFS服務路徑
您可以在Hive Metastore的hive-site.xml配置文件中設置hive.metastore.warehouse.dir到OSS-HDFS服務路徑,然后重啟Hive Metastore,后續(xù)創(chuàng)建的數(shù)據(jù)庫和數(shù)據(jù)庫下的表均默認存儲于OSS-HDFS服務路徑中。
配置示例如下:
<configuration> <property> <name>hive.metastore.warehouse.dir</name> <value>oss://bucket_name.endpoint_name/path/to/warehouse</value> </property> </configuration>
為已有表添加分區(qū)。
您可以為已創(chuàng)建的表添加分區(qū),從而將其分成較小的存儲單元。根據(jù)查詢條件,只掃描滿足條件的分區(qū)而避免全表掃描,從而顯著提升查詢性能。
命令格式
ALTER TABLE <table_name> ADD [IF NOT EXISTS] PARTITION <pt_spec> [PARTITION <pt_spec> PARTITION <pt_spec>...] LOCATION 'location';
參數(shù)說明如下:
參數(shù)
是否可選
說明
table_name
必選
待添加分區(qū)的表名稱。
IF NOT EXISTS
可選
未指定IF NOT EXISTS時,如果同名的分區(qū)已存在,會執(zhí)行失敗并返回報錯。
pt_spec
必選
新增的分區(qū),格式為
(partition_col1 = partition_col_value1, partition_col2 = partition_col_value2, ...)
。其中,partition_col
表示分區(qū)字段,partition_col_value
表示分區(qū)值。分區(qū)字段不區(qū)分大小寫,分區(qū)值區(qū)分大小寫。location
必選
指定存儲分區(qū)的OSS路徑。
使用示例
以下示例用于為表sale_detail添加一個分區(qū),用于存儲2021年12月華東1(杭州)地域的銷售記錄,并將分區(qū)存儲于指定的OSS路徑。
ALTER TABLE sale_detail ADD IF NOT EXISTS PARTITION (sale_date='202112', region='hangzhou') LOCATION 'oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/path/2021/';