集合,准备团战!终于来到我们的最终章了,快来跟我一起蜕变,破茧成蝶吧!关注专栏《破茧成蝶——大数据篇》查看相关系列文章~
【未完、待续……持续更新中……】【未完、待续……持续更新中……】【未完、待续……持续更新中……】
一、Hadoop篇
一、Hadoop框架介绍
二、Linux下搭建Hadoop的运行环境
三、Hadoop运行模式(本地模式、伪分布模式)
四、Hadoop的运行模式(完全分布式)
五、Hadoop核心组件之HDFS
六、HDFS中的NameNode和SecondaryNameNode
七、Hadoop源码编译
八、HDFS中的DataNode
九、Hadoop核心组件之MapReduce
十、Hadoop的序列化
十一、MapReduce中的InputFormat
十二、MapReduce中的Shuffle
十三、MapReduce中的OutputFormat
十四、MapReduce中的Join操作
十五、Hadoop中数据清洗(ETL)的简单应用
十六、Hadoop中的数据压缩
十七、Hadoop核心组件之Yarn
十八、Hadoop的优化
二十三、Hadoop的HA(高可用)
二十四、案例:分析日志数据,降序输出TopN
二十五、案例:对多个日志文件建立搜索索引
二十六、案例:寻找CSDN不同粉丝之间共同关注的博主
二、Zookeeper篇
十九、Zookeeper介绍
二十、Linux安装Zookeeper
二十一、Zookeeper的命令行操作
二十二、Zookeeper的API代码应用
二十七、Zookeeper的内部原理与ZAB协议
三、Hive篇
二十八、Hive的基本概念
二十九、Linux安装Hive并更改Metastore依赖库
三十、Hive的数据类型以及常用的属性配置
三十一、Hive的DDL数据定义
三十二、Hive的DML数据操作
三十三、Hive中的查询语句
三十四、Hive常用的函数
三十五、Hive的优化
四、Flume篇
三十六、Flume框架介绍
三十七、Flume的安装及测试
三十八、几个Flume的使用案例
三十九、Flume自定义Source、Sink
四十、Flume自定义MySQLSource
四十一、使用Ganglia监控Flume
五、Kafka篇
四十二、Kafka的介绍
四十三、Kafka的安装部署与基本操作
四十四、Kafka的架构
四十五、Kafka生产者(Producer)API介绍
四十六、Kafka消费者(Consumer)API介绍
四十七、Kafka中的拦截器(Interceptor)
四十八、Kafka的监控工具
六、HBase篇
四十九、HBase介绍
五十、HBase的安装以及命令行操作
五十一、HBase的原理
五十二、HBase的API操作
五十三、通过MapReduce实现HBase操作
五十四、HBase的协处理器
五十五、HBase与Hive集成
五十六、HBase的优化
七、Sqoop篇
五十七、Sqoop的安装与使用
五十八、Sqoop的常用参数及命令
八、Oozie篇
五十九、Oozie的简介与安装
六十、Oozie的使用示例
九、Azkaban篇
六十一、Azkaban的简介与安装
六十二、Azkaban使用示例
十、Kylin篇
六十三、Kylin的简介与安装
六十四、Kylin的初体验
六十五、Kylin Cube的构建
六十六、Kylin对接JDBC和Zepplin
十一、ClouderaManager篇
六十七、搭建Cloudera Manager环境管理大数据集群
六十八、CDH6.3.1部署大数据集群
六十九、CDH6.3.1中安装StreamSets3.16.0
七十、CDH集群中部署Presto
七十一、CDH6.3.1安装Phoenix服务
十二、Impala篇
七十二、Impala的简介与安装部署
七十三、Impala的常用操作
【未完、待续……持续更新中……】【未完、待续……持续更新中……】【未完、待续……持续更新中……】
象在舞的个人公众号,欢迎大家前来进行技术交流,我们共同学习、共同进步!