2021.9.30 利用sqoop将hive数据导出到mysql
一、今日学习内容
1、下载并解压 1) 下载地址:http://mirrors.hust.edu.cn/apache/sqoop/1.4.6/ 2) 上传安装包 sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 到虚拟机中 3) 解压 sqoop 安装包到指定目录,如: $ tar -zxf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt/module/ 2、 修改配置文件 Sqoop 的配置文件与大多数大数据框架类似,在 sqoop 根目录下的 conf 目录中。 1) 重命名配置文件 $ mv sqoop-env-template.sh sqoop-env.sh 2) 修改配置文件 sqoop-env.sh export HADOOP_COMMON_HOME=/opt/module/hadoop-2.7.2 export HADOOP_MAPRED_HOME=/opt/module/hadoop-2.7.2 export HIVE_HOME=/opt/module/hive export ZOOKEEPER_HOME=/opt/module/zookeeper-3.4.10 export ZOOCFGDIR=/opt/module/zookeeper-3.4.10 export HBASE_HOME=/opt/module/hbase 3、 拷贝 JDBC 驱动 拷贝 jdbc 驱动到 sqoop 的 lib 目录下,如: $ cp mysql-connector-java-5.1.27-bin.jar /opt/module/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/lib/ 4、 验证 Sqoop 我们可以通过某一个 command 来验证 sqoop 配置是否正确: $ bin/sqoop help 5、 测试 Sqoop 是否能够成功连接数据库 $ bin/sqoop list-databases --connect jdbc:mysql://hadoop102:3306/ --username root --password 000000 出现如下输出: information_schema metastore mysql oozie performance_schema 6、导出数据 4.2.1 HIVE/HDFS 到 RDBMS $ bin/sqoop export \ --connect jdbc:mysql://hadoop102:3306/company \ --username root \ --password 000000 \ --table staff \ --num-mappers 1 \ --export-dir /user/hive/warehouse/staff_hive \ --input-fields-terminated-by "\t"