添加了2篇关于Kylin新的文章

This commit is contained in:
wenjunzhou
2021-03-30 23:28:54 +08:00
parent 635880ced5
commit e493783858
2 changed files with 700 additions and 0 deletions

View File

@@ -0,0 +1,151 @@
## 前言
        我们在上一篇 Kylin 的入门级介绍(👉[第一个“国产“Apache顶级项目——Kylin了解一下](https://alice.blog.csdn.net/article/details/115267160))中,就已经谈到了有很多可以与 Kylin 结合使用的可视化工具,例如
- ODBC与Tableau、Excel、Power BI等工具集成。
- JDBC与Saiku、BIRT等Java工具集成
- REST API与JavaScript、Web网页集成。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Kylin开发团队还贡献了 <font color='red'>Zepplin</font> 的插件也可以使用Zepplin来访问Kylin服务
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;本期内容,我们就先介绍如何通过 **JDBC****Zeppelin** 的方式对 Kylin 进行集成!
## JDBC
1新建一个Maven项目并在 pom 文件中导入`kylin-jdbc`的依赖
```xml
<dependencies>
<dependency>
<groupId>org.apache.kylin</groupId>
<artifactId>kylin-jdbc</artifactId>
<version>2.5.1</version>
</dependency>
</dependencies>
```
2编写代码
```java
package com.alice;
import java.sql.*;
/**
* @Author: Alice菌
* @Date: 2021/3/29 18:29
* @Description: 通过 JDBC 连接 Kylin
*/
public class KylinTest {
public static void main(String[] args) throws SQLException, ClassNotFoundException {
// Kylin_JDBC 驱动
String kylinDriver = "org.apache.kylin.jdbc.Driver";
// Kylin 的 URL (jdbc:kylin://ip地址:7070/项目名称project)
String KylinUrl = "jdbc:kylin://node01:7070/demoTest";
// Kylin 的 用户名
String KylinUser = "ADMIN";
// Kylin 的密码
String KylinPasswd = "KYLIN";
// 添加驱动信息
Class.forName(kylinDriver);
// 获取连接
Connection connection = DriverManager.getConnection(KylinUrl, KylinUser, KylinPasswd);
// 预编译 SQL 语句
PreparedStatement ps = connection.prepareStatement("select date1, sum(price) as total_money, sum(amount) as total_amount from dw_sales group by date1,channelid");
// 执行查询
ResultSet resultSet = ps.executeQuery();
// 遍历打印
while (resultSet.next()){
// 获取时间
String date1 = resultSet.getString("date1");
// 获取总金额
String total_money = resultSet.getString("total_money");
// 获取总次数
String total_amount = resultSet.getString("total_amount");
// 输出结果
System.out.println(date1 + " " + total_money + " " + total_amount);
}
// 关闭连接
connection.close();
}
}
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;3结果展示
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210329185007573.png?,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;为了验证结果的准确性,我们到 Kylin 的 web 页面去查询一下:
![在这里插入图片描述](https://img-blog.csdnimg.cn/202103291906093.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;可以发现结果是一样的😎
## Zeppelin
### 1Zeppelin安装与启动
1`zeppelin-0.8.0-bin-all.tgz`上传至Linux
2 解压`zeppelin-0.8.0-bin-all.tgz``/export/servers`目录下
```bash
[root@node01 software]# tar -zxvf zeppelin-0.8.0-bin-all.tgz -C /export/servers/
```
3修改名称
```bash
[root@node01 servers]# mv zeppelin-0.8.0-bin-all/ zeppelin
```
4启动 Zeppelin
```bash
[root@node01 zeppelin]# bin/zeppelin-daemon.sh start
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;以本机为例,我们可以通过 `http://node01:8080/#/`进行查看Web 默认端口为 8080 ,如图所示:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210329213150668.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
### 2配置Zeppelin支持Kylin
1选择“anonymous” → “Interpreter”选项配置解释器
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210329213524905.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
2搜索Kylin插件并修改相应的配置如图所示
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210329214025951.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
3修改完成后单击“Save” 按钮保存修改内容
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210329214037659.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
### 3案例实操
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;需求查询订单商品dw_sales表的数据并使用各种图表进行展示。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;1选择“Notebook”→“Creat new note”选项创建新的 note
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210329214700772.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;2在 “Note Name” 文本框中输入 “test_kylin” 并单击“Create”按钮如图所示
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210329214829959.png?,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;3note 创建成功如图所示:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210330004144266.png)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;4结果展示
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210330004625105.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
5其他图表格式
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210330004714855.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210330004746496.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210330004807640.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210330004913351.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
## 小结
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;本期文章为大家介绍了 2 种通过 BI 工具展示 Kylin 查询结果的方式 ,大家仅做学习了解即可。好了,本期内容就到这里,后面会为大家介绍关于 **Cube 的构建原理****构建优化**。感兴趣的小伙伴记得点个<font color='orange'>**关注**</font>,第一时间阅读!
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;你知道的越多,你不知道的也越多。我是<font color='purple'>**大数据梦想家**</font><font color='RoyalBlue'>**专注于研究大数据基础,架构与原型实现**</font>。点个**关注**,我们下一期见!

View File

@@ -0,0 +1,549 @@
> **本文已收录github[https://github.com/BigDataScholar/TheKingOfBigData](https://github.com/BigDataScholar/TheKingOfBigData)里面有大数据高频考点Java一线大厂面试题资源上百本免费电子书籍作者亲绘大数据生态圈思维导图…持续更新欢迎star**
## 前言
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;说到Apache顶级开源项目大家首先会想到什么
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;不熟悉Apache软件基金会的朋友也不用担心大家可以去[Apache官网](https://www.apache.org/)下拉到最下边的页面查看Apache有哪些开源项目。
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200513173812206.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;相信各位朋友在项目清单中肯定会看到不少熟悉的身影,`JavaEE``HTTP`,`FTP`,`Hadoop`,`SQL`,`Maven`,`Tomcat`,`Kafka`,`Hive`...这些几乎我们天天都在打交道的`朋友`竟然都是Apache顶级项目“家族”的一员。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;也许你会有些遗憾,这些顶级项目都是由外国友人所贡献的。但认真看了本期内容标题的朋友都应该期待着,接下来,我要为大家介绍的是正如题目所述,<font color='#9F35FF'>第一个由国人开发的Apache顶级项目——Kylin</font>
![](https://imgconvert.csdnimg.cn/aHR0cHM6Ly90aW1nc2EuYmFpZHUuY29tL3RpbWc_aW1hZ2UmcXVhbGl0eT04MCZzaXplPWI5OTk5XzEwMDAwJnNlYz0xNTg5MzczNTI0NTYxJmRpPWE4NmYyMDE3NGYwNTA4ZTM3YWVhMGQzMTQ3MGQyMzMxJmltZ3R5cGU9MCZzcmM9aHR0cDovL3BpYzQuemhpbWcuY29tL3YyLTIxZDg2YzZhZjJmM2EzZmYyOTM1YzRkMmUxOWZhYWU2XzEyMDB4NTAwLmpwZyNwaWNfY2VudGVy?x-oss-process=image/format,png#pic_center)
## Kylin
### 诞生背景
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;目前大数据存在需要大量行为数据与用户标签数据的多维度的复杂分析统计场景,此场景同时有大量行为数据(事实数据)与多维度分析数据。需要在**近实时查询**的情况下快速得到结果帮助公司进行分析和决策。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Kylin是中国团队研发的是第一个真正由中国人自己主导、从零开始、自主研发、并成为Apache顶级开源项目。它巧妙地将“Hive支持SQL灵活查询但速度特别慢”与“HBase查询性能快但原生不支持SQL”的设计巧妙结合在了一起。Kylin先将数据进行预处理将预处理的结果放在HBase当中大大提高了查询时的效率
### 简介
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Apache Kylin 是一个开源的分布式分析引擎,提供 Hadoop/Spark 之上的 SQL 查询接口及多维分析的功能,支持超大规模数据,最初由 eBay 开发并贡献至开源社区。它能在亚秒内查询巨大的 Hive 表。
### 架构
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Kylin架构如图所示
![](https://img-blog.csdnimg.cn/20210327215013758.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;其中Kylin 具有如下几个关键组件。
#### 1.REST Server
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;REST Server是面向应用程序开发的入口点旨在完成针对Kylin平台的应用开发工作可以提供查询、获取结果、触发Cube 构建任务、获取元数据及获取用户权限等功能,另外可以通过 REST API 接口实现 SQL查询。
#### 2.Query Engine
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;当Cube准备就绪后查询引擎即可获取并解析用户所查询的问题。它随后会与系统中的其他组件进行交互从而向用户返回对应的结果。
#### 3.Routing
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;在最初设计时设计者曾考虑将Kylin不能执行的查询引导到Hive中继续执行但在实践后发现Hive与Kylin的查询速度差异过大导致用户无法对查询的速度有一致的期望大多数查询几秒内就返回结果了而有些查询则要等几分钟到几十分钟因此用户体验非常糟糕。最后这个路由功能在发行版中被默认关闭。
#### 4.Metadata
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Kylin 是一款元数据驱动型应用程序。元数据管理工具是一大关键性组件用于对保存在Kylin 中的所有元数据进行管理,其中包括最为重要的 Cube 元数据。其他组件的正常运作都需要以元数据管理工具为基础。**Kylin的元数据存储在HBase中**。
#### 5.Cube Build Engine
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Cube构建引擎的设计目的在于处理所有离线任务其中包括 Shell脚本、Java API、MapReduce任务等。Cube Build Engine对Kylin中的全部任务加以管理与协调从而确保每项任务都能得到切实执行并解决期间出现的故障。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Kylin的主要特点及说明如下。
- **支持标准SQL接口**Kylin以标准的SQL作为对外服务的接口。
- **支持超大规模数据集**Kylin对大数据的支撑能力是目前所有技术中较为领先的。早在2015年eBay的生产环境中就能支持百亿条记录的秒级查询之后在移动的应用场景中又有了支持千亿条记录的秒级查询的案例。
- **亚秒级响应**Kylin拥有优异的查询响应速度这点得益于预计算很多复杂的计算比如连接、聚合在离线的预计算过程中就已经完成这大大降低了查询时刻所需的计算量提高了响应速度。
- **高伸缩性和高吞吐率**单节点Kylin可实现每秒70个查询还可以搭建Kylin的集群。
- **BI工具集成**。Kylin可以与现有的BI工具集成。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;另外Kylin开发团队还贡献了 Zeppelin 的插件,用户可以使用 Zeppelin 访问 Kylin 服务。
### 应用场景
Kylin 典型的<font color='tomato'>**应用场景**</font>如下:
- 用户数据存在于 Hadoop HDFS中利用 Hive 将 HDFS文件数据以关系数据方式存取数据量巨大在500G以上
- 每天有数G甚至数十G的数据增量导入
- 有10个以内较为固定的分析维度.....
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Kylin 的<font color='tomato'>**核心思想**</font>是**利用空间换时间**,在数据 ETL 导入 OLAP 引擎时提前计算各维度的聚合结果并持久化保存。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<font color='tomato'>**原理**</font>为通过 hive 将海量数据通过统计转化为多维度数据模型表(星型模型、雪花模型等),通过 Kylin 使用字典编码Dictionary-coder将维度数据进行压缩生成维度字典。然后将事实维度数据转换为 Kylin 的 cube 数据模型,实现预计算,并可使用标准 SQL 查询。
### 使用 Kylin 的公司
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Kylin如今作为大数据业内十分热门的“OLAP”引擎在越来越多公司中得到“重用”
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210327222515101.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70#pic_center)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;具体在企业中是如何使用的,我就不在这里赘述了,感兴趣大家可以从以下链接去做学习了解。
> https://www.jianshu.com/p/aae410e5a2fe 《Apache Kylin在美团数十亿数据OLAP场景下的实践》
> https://www.sohu.com/a/240896646_659643 《实践 | Kylin在滴滴OLAP引擎中的应用》
## HBase安装
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;在安装 Kylin 前需要先安装部署好 Hadoop、Hive、Zookeeper 和 HBase并且需要在 `/etc/profile` 目录下配置 `HADOOP_HOME``HIVE_HOME``HBASE_HOME` 环境变量,注意执行`source/etc/profile`命令使其生效。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;1保证 Zookeeper 集群的正常部署,并启动它。
```javascript
[root@node01 zookeeper-3.4.9]$ bin/zkServer.sh start
[root@node02 zookeeper-3.4.9]$ bin/zkServer.sh start
[root@node03 zookeeper-3.4.9]$ bin/zkServer.sh start
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;2保证 Hadoop 集群的正常部署,并启动它
```javascript
[root@node01 hadoop-2.7.2]$ sbin/start-dfs.sh
[root@node01 hadoop-2.7.2]$ sbin/start-yarn.sh
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;3解压 HBase 安装包到指定目录。
```javascript
[root@node01 software]$ tar -zxvf hbase-1.3.1-bin.tar.gz -C /export/servers
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;4修改 HBase 对应的配置文件
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;① hbase-env.sh 文件的修改内容如下
```bash
export JAVA_HOME=/opt/module/jdk1.8.0_144
export HBASE_MANAGES_ZK=false
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;② hbase-site.xml 文件的修改内容如下
注意:
- 修改HDFS NameNode节点名称
- 修改zookeeper服务器名称
- 修改zookeeper数据目录位置
```javascript
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://node01:8020/hbase_1.3.1</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 0.98后的新变动之前版本没有.port,默认端口为60000 -->
<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>node01,node02,node03</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/export/servers/zookeeper-3.4.9/zkdatas</value>
</property>
<property>
<name>hbase.thrift.support.proxyuser</name>
<value>true</value>
</property>
<property>
<name>hbase.regionserver.thrift.http</name>
<value>true</value>
</property>
</configuration>
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;③ 在 regionservers 文件中增加如下内容
```bash
node01
node02
node03
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;④ 软连接 Hadoop 配置文件到 HBase
```bash
ln -s /export/servers/hadoop-2.7.2/etc/hadoop/core-site.xml $PWD/core-site.xml
ln -s /export/servers/hadoop-2.7.2/etc/hadoop/hdfs-site.xml $PWD/hdfs-site.xml
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;⑤ 将 HBase 远程发送到其他集群
```bash
[root@node01 servers]$ xsync hbase_1.3.1/
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;4配置 HBase 环境变量
```javascript
# Apache HBase 1.3.1
export HBASE_HOME=/export/servers/hbase-1.3.1
export PATH=$HADOOP/sbin:$HADOOP/bin:$HBASE_HOME/bin:$PATH
```
刷新环境变量
```javascript
source /etc/profile
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;5启动 HBase 服务。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 进入hbase shell
```javascript
bin/start-hbase.sh
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;执行上述操作执行list命令如果能显示以下内容表示安装成功。
```javascript
hbase(main):002:0> list
TABLE
0 row(s) in 0.1380 seconds
=> []
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;当然,你也可以通过`host:port`的方式来访问 HBase 的页面,例如:`http://node01:16010/`
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210327234156879.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;OK安装完了 Hbase1.3.1,接着我们开始安装 kylin 。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
## Kylin安装
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;1下载 Kylin 安装包
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;2解压 `apache-kylin-2.6.3-bin-hbase1x.tar.gz`` /export/servers` 目录下
```bash
tar -zxf /export/softwares/apache-kylin-2.6.3-bin-hbase1x.tar.gz -C /export/servers/
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;注 意 启 动 前 需 检 查 `/etc/profile` 目 录 中 的 `HADOOP_HOME``HIVE_HOME``HBASE_HOME` 是否配置完毕
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;3启动
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;① 在启动 Kylin 之前,需要先启动 HadoopHDFS、YARN、JobHistoryServer、Zookeeper 和 HBase。需要注意的是要同时启动 Hadoop 的历史服务器,对 Hadoop 集群配置进行如下修改。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;配置 mapred-site.xml 文件。
```bash
[root@node01 hadoop]$ vim mapred-site.xml
<property>
<name>mapreduce.jobhistory.address</name>
<value>node01:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>node01:19888</value>
</property>
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;配置 yarn-site.xml 文件。
```bash
[root@node01 hadoop]$ vim yarn-site.xml
<!-- 日志聚集功能开启 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 日志保留时间设置为 7 天 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;修改配置后,分发配置文件,重启 Hadoop 的 HDFS 和 YARN 的所有进程。
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;启动 Hadoop 历史服务器。
```bash
[root@node01 hadoop-2.6.0-cdh5.14.0]$ sbin/mr-jobhistory-daemon.sh start historyserver
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;② 启动 Kylin
```bash
[root@node01 kylin]$ bin/kylin.sh start
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;启动之后查看各台节点服务器的进程。
```bash
--------------------- node01 ----------------
3360 JobHistoryServer
31425 HMaster
3282 NodeManager
3026 DataNode
53283 Jps
2886 NameNode
44007 RunJar
2728 QuorumPeerMain
31566 HRegionServer
--------------------- node02 ----------------
5040 HMaster
2864 ResourceManager
9729 Jps
2657 QuorumPeerMain
4946 HRegionServer
2979 NodeManager
2727 DataNode
--------------------- node03 ----------------
4688 HRegionServer
2900 NodeManager
9848 Jps
2636 QuorumPeerMain
2700 DataNode
2815 SecondaryNameNode
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;在浏览器地址栏中输入`node01:7070/kylin/login`,查看 Web 页面,如图所示:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328112703684.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;用户名为 ADMIN密码为 KYLIN系统已填
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;4关闭Kylin
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;如果我们想要关闭 Kylin只需要执行下面的命令
```bash
[root@node01 apache-kylin-2.6.3]# bin/kylin.sh stop
```
## Kylin的使用
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;到了这一步,我们终于将 Kylin 安装好了,下面我们来讲一下 Kylin 的具体使用。
### 准备测试数据表
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;为了让最终的演示更具有说明力,同时也为了方便后续的学习,接下来我们需要先准备几张测试数据表。
**1、事实表dw_sales**
|列名 | 列类型|说明|
|:--|:--|:--|
| id | string |订单id
|date1|string|订单日期
|channelid|string|订单渠道(商场、京东、天猫)
productid|string|产品id
|regionid|string|区域名称
|amount|int|商品下单数量
price|double|商品金额|
**2、维度表_渠道方式dim_channel**
|列名 |列类型 |说明|
|:--|:--|:--|:--|
| channelid| string|渠道id|
|channelname|string|渠道名称
**3、维度表_产品名称dim_product**
|列名 |列类型 |说明|
|:--|:--|:--|:--|
|productid | string |产品id
productname|string|产品名称|
**4、维度表_区域dim_region**
|列名 |列类型 |说明|
|:--|:--|:--|:--|
|regionid | string|区域id|
|regionname|string|区域名称|
### 导入测试数据
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;准备好了测试数据之后,我们需要将在 Hive 中 建好对应的表,这里我采取的是执行已经写好的脚本`hive.sql`文件,创建测试表。
> 对应的数据文件和sql脚本不方便在这里展示需要的同学可以添加我的微信zwj_bigdataer 获取
**操作步骤:**
1、使用 beeline 连接Hive
```sql
!connect jdbc:hive2://node1:10000
```
2、创建并切换到 itcast_dw 数据库
```sql
create database itcast_kylin_dw;
use itcast_kylin_dw;
```
3、执行上面我们提到的`hive.sql`文件执行sql、创建测试表
```sql
-- 执行sql文件
source hive.sql
-- 查看表是否创建成功
show tables;
```
![在这里插入图片描述](https://img-blog.csdnimg.cn/2021032811570478.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70#pic_center)
4、在home目录创建`~/dat_file` 文件夹,并将测试数据文件上传到该文件夹中
`mkdir ~/dat_file`
导入数据到表中
```bash
-- 导入数据
LOAD DATA LOCAL INPATH '/root/dat_file/dw_sales_data.txt' OVERWRITE INTO TABLE dw_sales;
LOAD DATA LOCAL INPATH '/root/dat_file/dim_channel_data.txt' OVERWRITE INTO TABLE dim_channel;
LOAD DATA LOCAL INPATH '/root/dat_file/dim_product_data.txt' OVERWRITE INTO TABLE dim_product;
LOAD DATA LOCAL INPATH '/root/dat_file/dim_region_data.txt' OVERWRITE INTO TABLE dim_region;
```
5、执行一条SQL语句确认数据是否已经成功导入
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328220039366.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
### 指标和维度
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;在确认完成了上面的数据准备操作之后,我们就可以对 kylin 进行实际操作了。但我们还需要先了解一下,什么是**指标和维度**
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;首先来看下面的 demo
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328220226246.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;相信各位朋友已经有了自己的想法和答案,这里提供一种思考方式:
> <font color='red'>红色字体</font>是指标/度量?还是维度?
> 答案:<font color='red'>指标/度量【到底要看什么?获取什么?】</font><br>
> <font color='blue'>蓝色字体</font>是指标/度量?还是维度?
> 答案:<font color='blue'>维度【怎么看!怎么获取!】</font>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;==**结论**:需求决定哪些是维度,哪些是指标。==
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;好了明确了什么是维度什么是指标之后我们就可以正式开启kylin的使用之旅了~
### 按照日期统计订单总额/总数量Kylin方式
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;做任何事情都有一个顺序使用一门新的技术亦是如此。要使用Kylin进行OLAP分析需要按照以下方式来进行。
1、创建项目Project
2、创建数据源DataSource
- 指定有哪些数据需要进行数据分析
3、创建模型Model
- 指定具体要对哪个事实表、那些维度进行数据分析
4、创建立方体Cube
- 指定对哪个数据模型执行数据预处理,生成不同维度的数据
5、执行构建、等待构建完成
6、再执行SQL查询获取结果
#### 具体步骤:
##### 1、创建 Project
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;1点击 + 图标创建工程,如图所示:
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328221338574.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;2填写工程名称和描述信息并单击“Submit”按钮提交
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328221539485.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
##### 2、获取数据源
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;1选择“Data Source”选项卡如图所示
![在这里插入图片描述](https://img-blog.csdnimg.cn/2021032822175159.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;2单击图中箭头所指的图标导入 Hive 表。
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328221951331.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;3选中所需数据表并单击“Sync”按钮如图所示
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328223529491.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
##### 3、创建 Model
1选择“Models”选项卡然后单击“New”按钮接着单击“NewModel”按钮。
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328224403983.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
2填写Model信息然后单击“Next”按钮如图所示
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328224507467.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
3选择事实表
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328230324746.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
4选择事实表中所有有可能用到的维度然后点击 `Next`按钮![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328230608392.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
5选择度量字段并单击`Next`按钮
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328230830625.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
6指定事实表分区字段仅支持时间分区但是我们这次的演示用不上所以我们这里直接单击“Save”按钮然后在弹窗中点击“Yes”Model 创建完毕!
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328231206897.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
此时我们就可以在初始界面看到已经创建好的 Model
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328231351390.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
##### 4、创建 Cube
1单击“New Cube”按钮
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328232040174.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
2填写Cube信息选择Cube所依赖的 Model并单击“Next”按钮如图所示
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328232408532.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
3选择 Cube 所需的维度,如图
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328233436244.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328233648857.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
4选择 Cube 所需的度量值
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328233746610.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
根据我们SQL的查询需求对指定的字段设置聚合
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328235336525.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
点击 `Next`
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328233935914.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
5Cube自动合并设置。每天Cube需按照日期分区字段进行构建每次构建的结果会保存到 HBase的一张表中为提高查询效率需将每日的 Cube 进行合并,此处可设置合并周期
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328234348896.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
6Kylin的高级配置优化相关配置这里我们就暂只修改一下计算引擎其他配置不动执行完毕点击`Next`
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328234620875.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328234625491.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
7Kylin 属性值覆盖相关配置信息,我们不用进行任何操作,直接 `Next`
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328234827372.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
8此时显示的是Cube的设计信息总览如图单击`Save`按钮Cube创建完成
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328234934210.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
保存完毕我们可以看见一个新的Cube已经创建好了~
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328235424703.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
9构建 Cube计算单击对应的Cube的“Action”下拉按钮选择 “Build” 选项
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328235552659.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
10选择“Monitor”查看构建进度可以发现此时进度还在加载
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210328235859325.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
稍等片刻,刷新页面,可以看到 Cube 已经构建完毕
![在这里插入图片描述](https://img-blog.csdnimg.cn/2021032900035248.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
注意看此时 Cube 就已经变成 `READY`的状态了
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210329000523872.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
##### 5、执行SQL查询
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;忙碌了好一阵子,终于可以展示 Kylin 的威力了,接下来我们从 Cube 中查询数据
```sql
select date1,
sum(price) as total_money,
sum(amount) as total_amount
from dw_sales
group by date1, channelid;
```
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;查询结果如下
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210329001801589.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;我们可以发现用 Kylin 执行 HQL 语句的速度最早为4.69s第二次执行就变成了0.01s
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;那如果在Hive的命令行窗口执行相同的HQL语句耗时将为多少呢
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200514201840605.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlaXhpbl80NDMxODgzMA==,size_16,color_FFFFFF,t_70)
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;可以看到 Hive 将 HQL 转化成 MapReduce 程序去执行后,查询的时间为`12.764` s这个速度与上面用 `Kylin` 执行的速度相比,差了近 **100** 倍。如果数据量更大一些Kylin的优势将会更加明显。
## 小结
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;本篇文章作为 Kylin 的入门篇,非常详细清楚地为大家从 **Kylin 的诞生背景,简介,架构 ,应用场景再到 HBaseKylin 安装,并用一个简单的例子为大家演示了 Kylin 的具体使用**。当然,关于 Kylin 还有很多进阶的内容,例如 **Cube 的构建原理构建优化Kylin 与 BI 工具的集成**等等 ..... 这些内容会在后面的文章中具体介绍,感兴趣的小伙伴记得点个关注,第一时间阅读!
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;你知道的越多,你不知道的也越多。我是<font color='DarkOrchid'>**大数据梦想家**</font><font color='RoyalBlue'>**专注于研究大数据基础,架构与原型实现**</font>。点个**关注**,我们下一期见!
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;