2021.9.30 利用sqoop将hive数据导出到mysql


一、今日学习内容

    

1、下载并解压   1) 下载地址:http://mirrors.hust.edu.cn/apache/sqoop/1.4.6/   2) 上传安装包 sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 到虚拟机中   3) 解压 sqoop 安装包到指定目录,如:     $ tar -zxf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt/module/ 2、 修改配置文件   Sqoop 的配置文件与大多数大数据框架类似,在 sqoop 根目录下的 conf 目录中。   1) 重命名配置文件     $ mv sqoop-env-template.sh sqoop-env.sh   2) 修改配置文件     sqoop-env.sh     export HADOOP_COMMON_HOME=/opt/module/hadoop-2.7.2     export HADOOP_MAPRED_HOME=/opt/module/hadoop-2.7.2     export HIVE_HOME=/opt/module/hive     export ZOOKEEPER_HOME=/opt/module/zookeeper-3.4.10     export ZOOCFGDIR=/opt/module/zookeeper-3.4.10     export HBASE_HOME=/opt/module/hbase 3、 拷贝 JDBC 驱动   拷贝 jdbc 驱动到 sqoop 的 lib 目录下,如:     $ cp mysql-connector-java-5.1.27-bin.jar     /opt/module/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/lib/ 4、 验证 Sqoop   我们可以通过某一个 command 来验证 sqoop 配置是否正确:     $ bin/sqoop help   5、 测试 Sqoop 是否能够成功连接数据库     $ bin/sqoop list-databases --connect jdbc:mysql://hadoop102:3306/     --username root --password 000000   出现如下输出:     information_schema     metastore     mysql     oozie     performance_schema 6、导出数据    4.2.1 HIVE/HDFS 到 RDBMS $ bin/sqoop export \ --connect jdbc:mysql://hadoop102:3306/company \ --username root \ --password 000000 \ --table staff \ --num-mappers 1 \ --export-dir /user/hive/warehouse/staff_hive \ --input-fields-terminated-by "\t"