大数据平台系列文章:
1、大数据基础平台搭建-(一)基础环境准备
2、大数据基础平台搭建-(二)Hadoop集群搭建
3、大数据基础平台搭建-(三)Hadoop集群HA+Zookeeper搭建
4、大数据基础平台搭建-(四)HBase集群HA+Zookeeper搭建
5、大数据基础平台搭建-(五)Hive搭建
大数据平台是基于Apache Hadoop_3.3.4搭建的;
HBase集群部署采用HA高可用+完全分布式集群方式搭建
序号 | 服务节点 | NameNode节点 | Zookeeper节点 | HMaster节点 | HRegionServer节点 |
---|---|---|---|---|---|
1 | hNode1 | √ (主) | √ | √ (主) | - |
2 | hNode2 | √ (备) | √ | √ (备) | - |
3 | hNode3 | - | √ | - | √ |
4 | hNode4 | - | - | - | √ |
5 | hNode5 | - | - | - | √ |
参见大数据基础平台搭建-(三)Hadoop集群HA+Zookeeper搭建
参见大数据基础平台搭建-(三)Hadoop集群HA+Zookeeper搭建中的**【三、搭建Zookeeper集群】**部分
序号 | 软件名称 | 版本 | 说明 |
---|---|---|---|
1 | JDK | 1.8 | |
2 | Hadoop | 3.3.4 | |
3 | HBase | 3.8.0 | 列式数据库 |
4 | Zookeeper | 2.4.15 |
[root@hnode1 ~]# cd /opt/hadoop
[root@hnode1 hadoop]# tar -xzvf ./hbase-2.4.15-bin.tar.gz
[root@hnode1 hadoop]# vim /etc/profile
#HBase
export HBASE_HOME=/opt/hadoop/hbase-2.4.15
export PATH=$HBASE_HOME/bin:$PATH
[root@hnode1 hadoop]# source /etc/profile
[root@hnode1 hadoop]# cd /opt/hadoop/hbase-2.4.15/conf
[root@hnode1 conf]# vim hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_271
#true表示用自带的zookeeper,false表示用外部Zookeeper服务
export HBASE_MANAGES_ZK=false
export HBASE_CLASSPATH=/opt/hadoop/hbase-2.4.15/conf
[root@hnode1 hadoop]# vim /opt/hadoop/hbase-2.4.15/conf/hbase-site.xml
<configuration>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/opt/hadoop/data/hbase</value>
</property>
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://cluster/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hnode1:2181,hnode2:2181,hnode3:2181</value>
</property>
</configuration>
[root@hnode1 hadoop]# vim /opt/hadoop/hbase-2.4.15/conf/regionservers
hnode3
hnode4
hnode5
需要将hadoop下的core-site.xml、hdfs-site.xml配置文件复制到hbase服务的conf目录下,否则通过hdfs://cluster/hbase连接hdfs服务时会报无法解析cluster主机
[root@hnode1 hadoop]# cd /opt/hadoop/hbase-2.4.15/conf/
[root@hnode1 conf]# cp /opt/hadoop/hadoop-3.3.4/etc/hadoop/core-site.xml ./
[root@hnode1 conf]# cp /opt/hadoop/hadoop-3.3.4/etc/hadoop/hdfs-site.xml ./
[root@hnode2 ~]# cd /opt/hadoop
[root@hnode2 hadoop]# scp -r root@hnode1:/opt/hadoop/hbase-2.4.15 ./
[root@hnode2 hadoop]# vim /etc/profile
#HBase
export HBASE_HOME=/opt/hadoop/hbase-2.4.15
export PATH=$HBASE_HOME/bin:$PATH
[root@hnode2 hadoop]# source /etc/profile
[root@hnode3 ~]# cd /opt/hadoop
[root@hnode3 hadoop]# scp -r root@hnode1:/opt/hadoop/hbase-2.4.15 ./
[root@hnode3 hadoop]# vim /etc/profile
#HBase
export HBASE_HOME=/opt/hadoop/hbase-2.4.15
export PATH=$HBASE_HOME/bin:$PATH
[root@hnode3 hadoop]# source /etc/profile
[root@hnode4 ~]# cd /opt/hadoop
[root@hnode4 hadoop]# scp -r root@hnode1:/opt/hadoop/hbase-2.4.15 ./
[root@hnode4 hadoop]# vim /etc/profile
#HBase
export HBASE_HOME=/opt/hadoop/hbase-2.4.15
export PATH=$HBASE_HOME/bin:$PATH
[root@hnode4 hadoop]# source /etc/profile
[root@hnode5 ~]# cd /opt/hadoop
[root@hnode5 hadoop]# scp -r root@hnode1:/opt/hadoop/hbase-2.4.15 ./
[root@hnode5 hadoop]# vim /etc/profile
#HBase
export HBASE_HOME=/opt/hadoop/hbase-2.4.15
export PATH=$HBASE_HOME/bin:$PATH
[root@hnode5 hadoop]# source /etc/profile
在/opt/hadoop/hbase-2.4.15/conf目录下新增文件backup-masters,在文件中添加hnode2为备机
[root@hnode1 conf]# vim backup-masters
backup-masters配置文件中的内容
hnode2
前提是已正常Zookeeper集群和Hadoop集群
[root@hnode1 hadoop]# start-hbase.sh
通过在每个节点服务器上运行jps命令,在hnode1和hnode2上启动了HMaster服务,hnode3、hnode4、hnode5是HRegionServer服务则说明HBase集群启动成功
hnode1->HMaster (主)
hnode2->HMaster (备)
hnode3->HRegionServer
hnode4->HRegionServer
hnode5->HRegionServer
[root@hnode1 hadoop]# vim hadoop.sh
#!/bin/bash
if [ $# -lt 1 ]
then
echo "缺少参数..."
exit ;
fi
case $1 in
"start")
echo " ===================| 启动 Hadoop集群 | ==================="
echo " -------------------| 启动 Zookeeper集群 | ---------------"
ssh hnode1 "/opt/zk/apache-zookeeper-3.8.0-bin/bin/zkServer.sh start"
ssh hnode2 "/opt/zk/apache-zookeeper-3.8.0-bin/bin/zkServer.sh start"
ssh hnode3 "/opt/zk/apache-zookeeper-3.8.0-bin/bin/zkServer.sh start"
echo " -------------------| 启动 HDFS | ---------------"
ssh hnode1 "/opt/hadoop/hadoop-3.3.4/sbin/start-dfs.sh"
echo " -------------------| 启动 YARN | ---------------"
ssh hnode1 "/opt/hadoop/hadoop-3.3.4/sbin/start-yarn.sh"
echo " -------------------| 启动 HistoryServer |---------------"
ssh hnode2 "/opt/hadoop/hadoop-3.3.4/bin/mapred --daemon start historyserver"
echo " -------------------| 启动 HBase集群 |---------------"
ssh hnode1 "/opt/hadoop/hbase-2.4.15/bin/start-hbase.sh"
;;
"stop")
echo " ===================| 关闭 Hadoop集群 |==================="
echo " -------------------| 关闭 HBase集群 |---------------"
ssh hnode1 "/opt/hadoop/hbase-2.4.15/bin/hbase-daemon.sh stop master"
ssh hnode2 "/opt/hadoop/hbase-2.4.15/bin/hbase-daemon.sh stop master"
ssh hnode1 "/opt/hadoop/hbase-2.4.15/bin/stop-hbase.sh"
echo " -------------------| 关闭 HistoryServer |---------------"
ssh hnode2 "/opt/hadoop/hadoop-3.3.4/bin/mapred --daemon stop historyserver"
echo " -------------------| 关闭 YARN | ---------------"
ssh hnode1 "/opt/hadoop/hadoop-3.3.4/sbin/stop-yarn.sh"
echo " -------------------| 关闭 HDFS | ---------------"
ssh hnode1 "/opt/hadoop/hadoop-3.3.4/sbin/stop-dfs.sh"
echo " -------------------| 关闭 Zookeeper集群 | ---------------"
ssh hnode1 "/opt/zk/apache-zookeeper-3.8.0-bin/bin/zkServer.sh stop"
ssh hnode2 "/opt/zk/apache-zookeeper-3.8.0-bin/bin/zkServer.sh stop"
ssh hnode3 "/opt/zk/apache-zookeeper-3.8.0-bin/bin/zkServer.sh stop"
;;
*)
echo "输入的参数错误..."
;;
esac
# 启动集群
[root@hnode1 hadoop]# ./hadoop.sh start
# 停止集群
[root@hnode1 hadoop]# ./hadoop.sh stop
http://hnode1:16010和 http://hnode2:16010
HMaster(主)的状态信息
HMaster(备)的状态信息
文章浏览阅读1.6k次。安装配置gi、安装数据库软件、dbca建库见下:http://blog.csdn.net/kadwf123/article/details/784299611、检查集群节点及状态:[root@rac2 ~]# olsnodes -srac1 Activerac2 Activerac3 Activerac4 Active[root@rac2 ~]_12c查看crs状态
文章浏览阅读1.3w次,点赞45次,收藏99次。我个人用的是anaconda3的一个python集成环境,自带jupyter notebook,但在我打开jupyter notebook界面后,却找不到对应的虚拟环境,原来是jupyter notebook只是通用于下载anaconda时自带的环境,其他环境要想使用必须手动下载一些库:1.首先进入到自己创建的虚拟环境(pytorch是虚拟环境的名字)activate pytorch2.在该环境下下载这个库conda install ipykernelconda install nb__jupyter没有pytorch环境
文章浏览阅读5.2k次,点赞19次,收藏28次。选择scoop纯属意外,也是无奈,因为电脑用户被锁了管理员权限,所有exe安装程序都无法安装,只可以用绿色软件,最后被我发现scoop,省去了到处下载XXX绿色版的烦恼,当然scoop里需要管理员权限的软件也跟我无缘了(譬如everything)。推荐添加dorado这个bucket镜像,里面很多中文软件,但是部分国外的软件下载地址在github,可能无法下载。以上两个是官方bucket的国内镜像,所有软件建议优先从这里下载。上面可以看到很多bucket以及软件数。如果官网登陆不了可以试一下以下方式。_scoop-cn
文章浏览阅读4.5k次,点赞2次,收藏3次。首先要有一个color-picker组件 <el-color-picker v-model="headcolor"></el-color-picker>在data里面data() { return {headcolor: ’ #278add ’ //这里可以选择一个默认的颜色} }然后在你想要改变颜色的地方用v-bind绑定就好了,例如:这里的:sty..._vue el-color-picker
文章浏览阅读640次。基于芯片日益增长的问题,所以内核开发者们引入了新的方法,就是在内核中只保留函数,而数据则不包含,由用户(应用程序员)自己把数据按照规定的格式编写,并放在约定的地方,为了不占用过多的内存,还要求数据以根精简的方式编写。boot启动时,传参给内核,告诉内核设备树文件和kernel的位置,内核启动时根据地址去找到设备树文件,再利用专用的编译器去反编译dtb文件,将dtb还原成数据结构,以供驱动的函数去调用。firmware是三星的一个固件的设备信息,因为找不到固件,所以内核启动不成功。_exynos 4412 刷机
文章浏览阅读2w次,点赞24次,收藏42次。Linux系统配置jdkLinux学习教程,Linux入门教程(超详细)_linux配置jdk
文章浏览阅读3.3k次,点赞5次,收藏19次。xlabel('\delta');ylabel('AUC');具体符号的对照表参照下图:_matlab微米怎么输入
文章浏览阅读119次。顺序读写指的是按照文件中数据的顺序进行读取或写入。对于文本文件,可以使用fgets、fputs、fscanf、fprintf等函数进行顺序读写。在C语言中,对文件的操作通常涉及文件的打开、读写以及关闭。文件的打开使用fopen函数,而关闭则使用fclose函数。在C语言中,可以使用fread和fwrite函数进行二进制读写。 Biaoge 于2024-03-09 23:51发布 阅读量:7 ️文章类型:【 C语言程序设计 】在C语言中,用于打开文件的函数是____,用于关闭文件的函数是____。
文章浏览阅读3.4k次,点赞2次,收藏13次。跟随鼠标移动的粒子以grid(SOP)为partical(SOP)的资源模板,调整后连接【Geo组合+point spirit(MAT)】,在连接【feedback组合】适当调整。影响粒子动态的节点【metaball(SOP)+force(SOP)】添加mouse in(CHOP)鼠标位置到metaball的坐标,实现鼠标影响。..._touchdesigner怎么让一个模型跟着鼠标移动
文章浏览阅读178次。项目运行环境配置:Jdk1.8 + Tomcat7.0 + Mysql + HBuilderX(Webstorm也行)+ Eclispe(IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持)。项目技术:Springboot + mybatis + Maven +mysql5.7或8.0+html+css+js等等组成,B/S模式 + Maven管理等等。环境需要1.运行环境:最好是java jdk 1.8,我们在这个平台上运行的。其他版本理论上也可以。_基于java技术的停车场管理系统实现与设计
文章浏览阅读3.5k次。前言对于MediaPlayer播放器的源码分析内容相对来说比较多,会从Java-&amp;gt;Jni-&amp;gt;C/C++慢慢分析,后面会慢慢更新。另外,博客只作为自己学习记录的一种方式,对于其他的不过多的评论。MediaPlayerDemopublic class MainActivity extends AppCompatActivity implements SurfaceHolder.Cal..._android多媒体播放源码分析 时序图
文章浏览阅读2.4k次,点赞41次,收藏13次。java 数据结构与算法 ——快速排序法_快速排序法