1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > [hive]数仓分层|用户纬度拉链表|维度建模

[hive]数仓分层|用户纬度拉链表|维度建模

时间:2020-07-12 20:04:07

相关推荐

[hive]数仓分层|用户纬度拉链表|维度建模

https://www.modb.pro/404?redirect=%2Fdb%2F241289

一、数仓分层

1、ODS层:原始数据层

ODS(O=original D=data S=store)

1)设计要点

存储来自多个业务系统、前端埋点、爬虫获取的一系列数据源的数据。

我们要做三件事:

【1】保持数据原貌不做任何修改,保留历史数据,起到数据备份的作用。

【2】使用lzo压缩。100G的数据压缩之后大概为20G。

【3】创建分区表,防止后续的全表扫描,一般按天存储。

2)ODS层数据组成

【1】前端埋点日志:由kafka或者flume采集到HDFS上

flume采集的语句[flume]参数设置_胖胖学编程的博客-CSDN博客

【2】由前端业务数据库用sqoop采集到HDFS上

3)前端埋点日志的处理

前端埋点日志以JSON格式形式存在

建表语句

createexternaltable ods_log(line string)partitioned by (dt string)Stored as inputformat 'com.hadoop.mapred.DeprecatedLzoTextInputFormat'outputformat 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat';

将flume落盘的数据建立lzo索引,否则无法分片

hadoop jar /opt/module/hadoop-3.1.4/share/hadoop/common/hadoop-lzo-0.4.20.jar \pression.lzo.DistributedLzoIndexer \-Dmapreduce.job.queuename=hive \/user/hive/warehouse/ods.db/ods_log/dt=-11-11

添加分区

hive -e "use ods;alter table ods_log add if not exists partition (dt='$daystr');"

4)MySQL数据库的处理

mysql数据库的表通过sqoop采集到HDFS,使用\t作为分隔符,那ods层的表也要使用\t作为分割符;

5)同步策略

(1)每日增量同步:流量表(ods_log)

也是埋点表,小时级增量表,所有的埋点数据都汇总在这一张表中。

包括前后端埋点和后端埋点

【1】前端埋点与后端埋点:

前端埋点:不需要网络的,在自己手机app/浏览器/小程序里就能产生的用户行为数据,这些数据会定期上报到服务器。

后端埋点:需要和MySQL交互的数据,例如用户注册的时候,要把用户名密码之类的存道MySQL。

数据时间漂移:用户手机中存的前端的数据会累积到一定条数再发送到服务器,例如80条,假如用户1-1号存了40条就关掉了app,1-2号打开了app,这40条的数据就会变成1-2的了。

举例:用户关注了另一个用户是后端埋点,因为用户关注列表+1,用户上传了一个课程视频是后端埋点,因为要把视频上传到服务器。

既然后端的数据都写入到服务器了,那为什么还需要后端埋点呢?

比如一个用户关注了另一个用户,又取消关注了,这样的话后端的表里就没有这条记录了,但是可以从埋点里面查看到:关注了,并且取消关注了这个行为。这个行为在埋点表设计的时候,还得带用户id,关注了谁的id,这两个字段。

【2】导入方式

如果是用的apache hadoop。用Nginx负载均衡,把数据均匀的发送到日志服务器中。就直接用flume拉取数据,taildir source memory channel hdfs sink。

要是用阿里的dataworks:包括调度+数据集成(从MySQL啥的导数据)+MaxCompute(类似hive,可以写sql) 注:一般用阿里的服务的话还用quickBI做报表展示。

就是后端和前端将数据写入到kafka中,然后从kafka中每小时进行数据同步。

(2)每日全量同步:用户表、订单表、看课表、课程表、章节表、教师表、互动表、卡片表

用户维度表:维度表。来自于后端,里面包含了用户的基本信息,例如用户的性别,年龄,生日,星座,职业等等。

课程维度表:记录课程属性信息的维度表。例如课程id 课程名称 课程url 教师id等等。

订单表:由学员购买课程,下单产生记录。

看课表:由学生看课产生的记录,细分为两张表:直播看课记录表、录播看课记录表。

章节表:课程的每一章节信息,例如课程id 课程名称 章节id 章节名称 等。

教师表:存储教师信息

互动表:用户的评论、关注、分享行为

卡片表:课程页面曝光与点击表,由组内其他成员使用spark开发

(3)特殊:一次性拉取,不建分区表(DIM层的父数据)

例如地区表,单位表

2、DIM

dim=dimension。存储为Parquet格式。

1)同步策略

全量同步:课程维度表。首日和每日都是全量先导入到ODS再导入到DIM层。

拉链表:用户维度表

特殊:单位表、地区(自己处理)

2)拉链表

(1)什么是拉链表

用于存储变化,但变化的频率较慢的数据。如果用全量存储,会存储大量重复的数据,因此用拉链表。

(2)每条数据的意义

该条数据的有效时间。

(3)制造拉链表

【1】建表语句

create table dim_user_info(id string,user_name string --用户名称,name string --真实姓名,phone_num string,gerder string --性别,email string,create_time string --创建时间,operate_time string --操作时间,start_date string --开始日期(拉链表特有),end_date string --结束日期(拉链表特有))partitioned by(dt string)stored as parquettable properties("pression"="lzo")

【2】分区规划

【3】首日装载

要进行初始化,ods层该表第一天从MySQL拉取的所有数据放到9999-99-99分区

insert overwrite table dim.dim_user_info partition(dt='9999-99-99')selectid,user_name,name,phone_num,gerder,email,create_time,operate_time,'-19-01' start_date,'9999-99-99' end_datefrom ods.ods_user_infowhere dt='-10-01'

【4】每日装载

a)将最新的数据装载到9999-99-99分区

如果new为null(没有变化),则取old

如果new不为null(今天发生了新增及变化),则取new

selectif(new.id is not null,new.id,old.id) id,if(new.user_name is not null,new.user_name,old.user_name) user_name,if(new.name is not null,new.name,old.name) name,if(new.phone_num is not null,new.phone_num,old.phone_num) num,if(new.gerder is not null,new.gerder,old.gerder) gerder,if(new.email is not null,new.email,old.email) nemail,if(new.create_time is not null,new.create_time,old.create_time) create_time ,if(new.operate_time is not null,new.operate_time,old.operate_time) operate_time,if(new.start_date is not null,new.start_date,old.start_date) start_date,if(new.end_date is not null,new.end_date,old.end_date) end_date(selectid,user_name,name,phone_num,gerder,email,create_time,operate_time,'-19-01' start_date,'9999-99-99' end_datefrom dim.dim_user_infowhere dt='9999-99-99')odsfull join(selectid,user_name,name,phone_num,gerder,email,create_time,operate_time,'-10-01' start_date,'9999-99-99' end_date --新增及变化的数据都是最新数据from ods.ods_user_info --ods_user_info表是每日增量导入的where dt='-10-01' --新增及变化的数据)newon ods.id=new.id

b)将过期数据装载到前一天的分区(注意日期之间没有重合)

new和old都有的数据取old

selectold.id id,old.user_name user_name,old.name name,old.phone_num num,old.gerder gerder,old.email nemail,old.create_time create_time ,old.operate_time operate_time,old.start_date start_date,old.end_date end_date(selectid,user_name,name,phone_num,gerder,email,create_time,operate_time,'-19-01' start_date,'9999-99-99' end_datefrom dim.dim_user_infowhere dt='9999-99-99')odsfull join(selectid,user_name,name,phone_num,gerder,email,create_time,operate_time,'-10-01' start_date,'9999-99-99' end_date --新增及变化的数据都是最新数据from ods.ods_user_info --ods_user_info表是每日增量导入的where dt='-10-01' --新增及变化的数据)newon ods.id=new.idwhere new.id is not null and old.id is not null;

(4)对拉链表进行查询

【1】获取在某天有效的所有用户的数据

--获取-01-01有效的所有历史数据select * from user_info where start_date<='-01-01' and end_date>='-01-01';

【2】获取目前所有用户的最近数据

select * from user_info where end_date>='9999-99-99';

3、DWD层

dwd=data warehouse detail

1)说明

dwd层是对事实表的处理,代表的是业务的最小粒度层,任何数据的记录都可以从这一层获取,为后续的dws和dwt层做准备。

dwd层是站在选择好事实表的基础上,对维度建模的视角。

2)对埋点数据进行处理

将流量表(ods_flow_ph)表唯一的字段line这个json串进行解析,解析成一个字段一个字段的。

3)对业务数据进行处理

【1】周期快照事实表

除了流量表以外的表都是从MySQL导入进来的。

103-尚硅谷-数仓搭建-DWD层优惠券领用事实表_哔哩哔哩_bilibili

一个知识点:累计快照事实表(没看完)如:优惠券领用,这种发生周期变化的场景createtable dwd_coupun_use(coupun_id string, --优惠券iduser_id string, --用户idcoupun_status string, --优惠券状态using_time string, --使用时间(下单)used_time string, --使用时间(支付)expire_time string --过期时间)partitioned by(dt string);

4、dim和dwd

DIM和DWD采用维度建模,一般采用星型模型,呈现状态一般为星座模型。详情见维度建模的步骤。

5、dws、dwt、ads

dws= data warehouse service

dwt=data warehosue topic

ads=application data store

dws、dwt、ads都是以需求为驱动的,和纬度建模已经没有关系了。

dws、dwt:统称为宽表层,这两层的设计思想大致相同,通过以下案例进行说明:

1)问题引出

两个需求,统计每个省份订单的个数、统计内个省份订单的总金额

2)处理办法

都是将省份和订单表进行join,group by省份,然后计算,同样的数据被计算了两次,实际上类似的场景还有很多,那怎么设计才能避免重复计算呢?针对上述场景可以设计一张地区表,其主键为地区ID,字段为:下单次数,下单金额,支付次数,支付金额等,上述所有指标统一进行计算,并将结果保存在该宽表中,这样就能有效避免数据的重复计算。

3)需要那些宽表(主题表):以维度为基准

4)DWS和DWT层的区别:

DWS层存放所有当天的汇总行为,例如每个地区当天下单次数,下单金额等,dwt层存放的是所有主题对象的累计行为,例如每个地区最近7天(15天、30天、60天)的下单次数,下单金额等。

5)ads层:存储各个报表需要的结果。

二、纬度建模

纬度建模步骤:选择业务过程声明粒度、确认纬度、确认事实

1、选择业务过程

整个业务流程中选取我们需要建模的业务,根据公司业务提供的需求及日后的易扩展性等进行选择业务。

这里我们选择了几个业务过程是:支付、订单、加购物车、优惠券领用、收藏、评论、退款等。

2、声明粒度

总体采用最小粒度规则,不做任何聚合操作。

声明力度意味着定义事实表中的一行数据表示什么,应尽可能选择最小粒度,以此来应对各种各样的需求。

3、确认纬度

确定维度对象,维度的主要作用是描述业务事实,主要表示的是:“谁、何处、何时”等信息。

确定维度的原则是:后续需求中是否要分析相关维度的指标。例如:需要统计哪个用户下的订单多,哪个地区下的订单多,什么地区下单多,需要确定的维度就包括:用户维度,地区维度,时间维度。

4、确认事实

事实表只有纬度id和度量值。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。