hive sql学习


Hive 创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。

hive可以创建带分区的内表,

 >   create table  sustPart (id  int,name string)    //创建表名为sust1

 >   partitioned by(country string)                         // 按国家进行分区  

 >  row format delimited fields  terminated by ',' ;       //使用逗号进行分隔 

根据分区进行查找人名   select count(1) from sustPart where country='China' group by (name='liyaozhou');

展示分区: show partitions + 表名; 如 show partitions sustPartion;

https://blog.csdn.net/weixin_38201936/article/details/88615988


hive执行计划解析

在从hive的sql,到最终出来执行结果,中间经历了MR流程,其中MR的map,combiner,shuffle,reduce具体是执行了hive的那个部分,这样就会比较全面。

  • sql写出来以后只是一些字符串的拼接,所以要经过一系列的解析处理,才能最终变成集群上的执行的作业
  1. Parser:将sql解析为AST(抽象语法树),会进行语法校验,AST本质还是字符串
  2. Analyzer:语法解析,生成QB(query block)
  3. Logicl Plan:逻辑执行计划解析,生成一堆Opertator Tree
  4. Logical optimizer:进行逻辑执行计划优化,生成一堆优化后的Opertator Tree
  5. Phsical plan:物理执行计划解析,生成tasktree
  6. Phsical Optimizer:进行物理执行计划优化,生成优化后的tasktree,该任务即是集群上的执行的作业
  • 结论:经过以上的六步,普通的字符串sql被解析映射成了集群上的执行任务,最重要的两步是 逻辑执行计划优化和物理执行计划优化(图中红线圈画)

https://blog.csdn.net/qq_32641659/article/details/89421655


Hadoop Hive sql语法详解

 Hive 是基于Hadoop 构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop 分布式文件系统中的数据,可以将结构化的数据文件映射为一张数据库表,并提供完整的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行,通过自己的SQL 去查询分析需要的内容,这套SQL 简称Hive SQL,使不熟悉mapreduce 的用户很方便的利用SQL 语言查询,汇总,分析数据。而mapreduce开发人员可以把己写的mapper 和reducer 作为插件来支持Hive 做更复杂的数据分析。

     它与关系型数据库的SQL 略有不同,但支持了绝大多数的语句如DDL、DML 以及常见的聚合函数、连接查询、条件查询。HIVE不适合用于联机online)事务处理,也不提供实时查询功能。它最适合应用在基于大量不可变数据的批处理作业。

    HIVE的特点:可伸缩(在Hadoop的集群上动态的添加设备),可扩展,容错,输入格式的松散耦合。

     Hive 的官方文档中对查询语言有了很详细的描述,请参考:http://wiki.apache.org/hadoop/Hive/LanguageManual ,本文的内容大部分翻译自该页面,期间加入了一些在使用过程中需要注意到的事项。

DML 操作:元数据存储

     hive不支持用insert语句一条一条的进行插入操作,也不支持update操作。数据是以load的方式加载到建立好的表中。数据一旦导入就不可以修改。

DML包括:INSERT插入、UPDATE更新、DELETE删除 ?向数据表内加载文件 ?将查询结果插入到Hive表中 ?0.8新特性 insert into   一般 SELECT 查询会扫描整个表,使用 PARTITIONED BY 子句建表,查询就可以利用分区剪枝(input pruning)的特性 ?Hive 当前的实现是,只有分区断言出现在离 FROM 子句最近的那个WHERE 子句中,才会启用分区剪枝   Hive 只支持等值连接(equality joins)、外连接(outer joins)和(left semi joins)。Hive 不支持所有非等值的连接,因为非等值连接非常难转化到 map/reduce 任务   ?LEFT,RIGHT和FULL OUTER关键字用于处理join中空记录的情况 ?LEFT SEMI JOIN 是 IN/EXISTS 子查询的一种更高效的实现 ?join 时,每次 map/reduce 任务的逻辑是这样的:reducer 会缓存 join 序列中除了最后一个表的所有表的记录,再通过最后一个表将结果序列化到文件系统 ?实践中,应该把最大的那个表写在最后 join 查询时,需要注意几个关键点 ?只支持等值join ?SELECT a.* FROM a JOIN b ON (a.id = b.id) ?SELECT a.* FROM a JOIN b 
    ON (a.id = b.id AND a.department = b.department) ?可以 join 多于 2 个表,例如   SELECT a.val, b.val, c.val FROM a JOIN b 
    ON (a.key = b.key1) JOIN c ON (c.key = b.key2)   ?如果join中多个表的 join key 是同一个,则 join 会被转化为单个 map/reduce 任务 LEFTRIGHTFULL OUTER ?例子 ?SELECT a.val, b.val FROM a LEFT OUTER JOIN b ON (a.key=b.key)   ?如果你想限制 join 的输出,应该在 WHERE 子句中写过滤条件——或是在 join 子句中写 ?容易混淆的问题是表分区的情况 ? SELECT c.val, d.val FROM c LEFT OUTER JOIN d ON (c.key=d.key) 
  WHERE a.ds='2010-07-07' AND b.ds='2010-07-07‘ ?如果 d 表中找不到对应 c 表的记录,d 表的所有列都会列出 NULL,包括 ds 列。也就是说,join 会过滤 d 表中不能找到匹配 c 表 join key 的所有记录。这样的话,LEFT OUTER 就使得查询结果与 WHERE 子句无关 ?解决办法 ?SELECT c.val, d.val FROM c LEFT OUTER JOIN d 
  ON (c.key=d.key AND d.ds='2009-07-07' AND c.ds='2009-07-07') LEFT SEMI JOIN ?LEFT SEMI JOIN 的限制是, JOIN 子句中右边的表只能在 ON 子句中设置过滤条件,在 WHERE 子句、SELECT 子句或其他地方过滤都不行 ? ?SELECT a.key, a.value 
  FROM a 
  WHERE a.key in 
   (SELECT b.key 
    FROM B);        可以被重写为:       SELECT a.key, a.val 
   FROM a LEFT SEMI JOIN b on (a.key = b.key) UNION ALL ?用来合并多个select的查询结果,需要保证select中字段须一致 ?select_statement UNION ALL select_statement UNION ALL select_statement ... https://blog.csdn.net/weixin_30355437/article/details/96400254?utm_medium=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.channel_param&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-BlogCommendFromMachineLearnPai2-1.channel_param  
https://blog.csdn.net/qq_43165880/article/details/107328723

3.2 基于Partition的查询

?一般 SELECT 查询会扫描整个表,使用 PARTITIONED BY 子句建表,查询就可以利用分区剪枝(input pruning)的特性 ?Hive 当前的实现是,只有分区断言出现在离 FROM 子句最近的那个WHERE 子句中,才会启用分区剪枝  

https://zhuanlan.zhihu.com/p/123007983
  • 分组排序窗口函数

    1、ntile(n) over()

    ntile(n) over(partition by ...A... order by ...B...) -- 均分成n份

    n:切分的片数

    A:分组的字段名称

    B:排序的字段名称

    • NTILE(n),用于将分组数据按照顺序切分成n片,返回当前切片值
    • NTILE()不支持ROWS BETWEEN ,比如NTILE(2) OVER(PARTITION BY ... ORDER BY ...ROWS BETWEEN 3 PRECEDING AND CURRENT ROW)
    • 如果切片不均匀,默认增加第一个切片的分布
    --将2019年1月的支付用户,按照支付金额分成5组--
    SELECT user_name,
           sum(pay_amount) as pay_amount,
           ntile(5) over(order by sum(pay_amount) desc) level
    FROM user_trade
    WHERE substr(dt,1,7) = '2019-01'
    GROUP BY user_name;

    练习

    • 选出2019年退款金额排名前10%的用户:选出2019年退款金额排名前10%的用户:
    --选出2019年退款金额排名前10%的用户--
    SELECT a.user_name,
           a.refund_amount,
           a.level
    FROM
        (SELECT user_name,
               sum(refund_amount) as refund_amount,
               ntile(10) over(order by sum(refund_amount) desc) level
        FROM user_refund
        WHERE year(dt)=2019
        GROUP BY user_name)a
    WHERE a.level = 1;

    四、偏移窗口函数

    1、lag(...) over(...) 、lead(...) over(...)

    相对于当前的行偏移 ; Lag和Lead分析函数可以在同一次查询中取出同一字段的前N行的数据(Lag)和后N行的数据(Lead)作为独立的列。

    在实际应用中,若要用到取今天和昨天的某字段差值时,Lag和Lead 函数的应用就显得尤为重要。当然,这种操作可以用表的自连接实现,但是LAG和LEAD与 left join 、right join 等自连接相比,效率更高,SQL更简洁。

    lag(exp_str,offset,defval) over(partition by ...... oredr by ......)

    lead(exp_str,offset,defval) over(partition by ...... oredr by ......)

    • exp_str是字段名称;
    • offset是偏移量,即是上1个或上N个的值,假设当前行在表中排在第五行,offset 为3,则表示我们所要找的数据行就是表中的第2行(即5-3=2)。offset默认值为1;
    • defval 默认值,当两个函数取上N/下N个值,当在表中从当前行位置向前数N行已经超出了表的范围时,lag()函数将defval这个参数值作为函数的返回值,若没有指定默认值,则返回NULL,那么在数学运算中,总要给一个默认值才不会出错。

    lag()实例:

    --Alice和Alexander的各种时间偏移--

    SELECT user_name,
           dt,
           lag(dt,1,dt) over(partition by user_name order by dt),
           lag(dt) over(partition by user_name order by dt),
           lag(dt,2,dt) over(partition by user_name order by dt),
           lag(dt,2) over(partition by user_name order by dt)
    FROM user_trade 
    WHERE dt > '0'
          and user_name in ('Alice','Alexader');  

    lead()实例:

    --Alice和Alexander的各种时间偏移--
    ?
    SELECT user_name,
           dt,
           lead(dt,1,dt) over(partition by user_name order by dt),
           lead(dt) over(partition by user_name order by dt),
           lead(dt,2,dt) over(partition by user_name order by dt),
           lead(dt,2) over(partition by user_name order by dt)
    FROM user_trade
    WHERE dt >'0'
           and user_name in ('Alice','Alexander');

    练习:支付时间间隔超过100天的用户数

    SELECT count(distinct user_name)
    FROM
         (SELECT user_name,
    	         dt,
    	         lead(dt) over(partition by user_name order by dt) lead_dt
          FROM user_trade
          WHERE dt>'0')a
    WHERE a.lead_dt is not null
          and datediff(a.lead_dt,a.dt)>100;
  • 相关