本文由ilanniweb提供友情赞助,首发于烂泥行天下
想要获得更多的文章,可以关注我的微信ilanniweb
因为公司的业务发展,需要搭建codis集群(一个由国内豌豆荚开发的redis集群解决方案),但是codis集群是依赖与zookeeper集群的。所以这篇文章,我们主要介绍有关zookeeper集群的搭建。
一、zookeeper介绍
zookeeper是一个分布式的开源框架,它能很好的管理集群,而且提供协调分布式应用的基本服务。
它向外部应用暴露一组通用服务——分布式同步(Distributed Synchronization)、命名服务(Naming Service)、集群维护(Group Maintenance)等,简化分布式应用协调及其管理的难度,提供高性能的分布式服务。
zookeeper本身可以以standalone模式(单节点状态)安装运行,不过它的长处在于通过分布式zookeeper集群(一个leader,多个follower),基于一定的策略来保证zookeeper集群的稳定性和可用性,从而实现分布式应用的可靠性。
1.1、zookeeper集群角色介绍
zookeeper集群中主要有两个角色:leader和follower。
领导者(leader),用于负责进行投票的发起和决议,更新系统状态。
学习者(learner),包括跟随者(follower)和观察者(observer)。
其中follower用于接受客户端请求并想客户端返回结果,在选主过程中参与投票。
而observer可以接受客户端连接,将写请求转发给leader,但observer不参加投票过程,只同步leader的状态,observer的目的是为了扩展系统,提高读取速度。
1.2 zookeeper集群节点个数
一个zookeeper集群需要运行几个zookeeper节点呢?
你可以运行一个zookeeper节点,但那就不是集群了。如果要运行zookeeper集群的话,最好部署3,5,7个zookeeper节点。本次实验我们是以3个节点进行的。
zookeeper节点部署的越多,服务的可靠性也就越高。当然建议最好是部署奇数个,偶数个不是不可以。但是zookeeper集群是以宕机个数过半才会让整个集群宕机的,所以奇数个集群更佳。
你需要给每个zookeeper 1G左右的内存,如果可能的话,最好有独立的磁盘,因为独立磁盘可以确保zookeeper是高性能的。如果你的集群负载很重,不要把zookeeper和RegionServer运行在同一台机器上面,就像DataNodes和TaskTrackers一样。
PS:本次实验所使用的OS有centos6、centos7和ubuntu15,如下:
为什么本次实验会使用到两种三个不同的OS,主要是刚好趁这个机会学习下最新的OS。
二、zookeeper安装
zookeeper介绍完毕后,我们现在就来安装zookeeper。而zookeeper运行需要java的支持,所以我们要首先安装jdk。
注意:zookeeper、jdk需要在每台服务器上都要安装和运行。
2.1 安装jdk
如果是centos系统,使用如下命令安装jdk:
yum search jdk
yum -y install java-1.6.0-openjdk
如果是ubuntu系统,使用如下命令安装jdk:
apt-cache search jdk |grep openjdk
apt-get -y install java-1.6.0-openjdk
jdk安装完毕后,我们来查看下java版本,使用如下命令:
java -version
2.2 安装zookeeper
zookeeper的安装很简单,我们只需要下载zookeeper压缩包,然后解压、配置、执行就可以了。如下:
wget http://mirrors.cnnic.cn/apache/zookeeper/zookeeper-3.4.8/zookeeper-3.4.8.tar.gz
zookeeper下载完毕后,我们进行如下操作:
tar -C /usr/local/ -xf zookeeper-3.4.8.tar.gz
cd /usr/local/
mv zookeeper-3.4.8 zookeeper
chown root:root -R zookeeper/
cd zookeeper
cp conf/zoo_sample.cfg conf/zoo.cfg
把zookeeper加入到环境变量,如下:
vim /etc/profile
export PATH=$PATH:/usr/local/zookeeper/bin
执行source命令使刚刚修改的环境生效,如下:
source /etc/profile
env
现在我们在其中任意一台服务器上启动zookeeper,使用如下命令:
bin/zkServer.sh start
查看zookeeper端口、状态和zookeeper日志,如下:
netstat -tunlp
bin/zkServer.sh status
cat zookeeper.out
通过上图,我们可以很明显的看到zookeeper监听的是TCP的2181端口,是以standalone单机模式运行的,而且通过zookeeper日志也可以看到目前zookeeper是正常运行的。
三、zookeeper集群搭建
zookeeper搭建完毕后,我们现在来配置zookeeper集群。
注意:在搭建zookeeper集群时,一定要停止已经启动的zookeeper。
3.1 修改zookeeper配置文件
zookeeper集群的搭建很简单,我们只需要修改每台服务器的zoo.cfg配置文件然后进行相关的操作即可。
先来修改zookeeper的配置文件zoo.cfg,如下:
vim /usr/local/zookeeper/conf/zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
clientPort=2181
dataLogDir=/usr/local/zookeeper/logs
dataDir=/usr/local/zookeeper/data
server.1= 192.168.1.9:2888:3888
server.2= 192.168.1.124:2888:3888
server.3= 192.168.1.231:2888:3888
配置文件参数说明:
tickTime这个时间是作为zookeeper服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是说每个tickTime时间就会发送一个心跳。
initLimit这个配置项是用来配置zookeeper接受客户端(这里所说的客户端不是用户连接zookeeper服务器的客户端,而是zookeeper服务器集群中连接到leader的follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。
当已经超过10个心跳的时间(也就是tickTime)长度后 zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 10*2000=20秒。
syncLimit这个配置项标识leader与follower之间发送消息,请求和应答时间长度,最长不能超过多少个tickTime的时间长度,总的时间长度就是5*2000=10秒。
dataDir顾名思义就是zookeeper保存数据的目录,默认情况下zookeeper将写数据的日志文件也保存在这个目录里;
clientPort这个端口就是客户端连接Zookeeper服务器的端口,Zookeeper会监听这个端口接受客户端的访问请求;
server.A=B:C:D中的A是一个数字,表示这个是第几号服务器,B是这个服务器的IP地址,C第一个端口用来集群成员的信息交换,表示这个服务器与集群中的leader服务器交换信息的端口,D是在leader挂掉时专门用来进行选举leader所用的端口。
3.2 创建相关目录
配置文件修改完毕后,我们来创建zookeeper数据目录和日志目录,使用如下命令:
mkdir -p /usr/local/zookeeper/logs
mkdir -p /usr/local/zookeeper/data
3.3 创建ServerID标识
除了修改zoo.cfg配置文件外,zookeeper集群模式下还要配置一个myid文件,这个文件需要放在dataDir目录下。
这个文件里面有一个数据就是A的值(该A就是zoo.cfg文件中server.A=B:C:D中的A),在zoo.cfg文件中配置的dataDir路径中创建myid文件。
在192.168.1.9服务器上创建myid文件,并设置为1,同时与zoo.cfg文件里面的server.1对应,如下:
echo “1” > /usr/local/zookeeper/data/myid
在192.168.1.124服务器上创建myid文件,并设置为2,同时与zoo.cfg文件里面的server.2对应,如下:
echo “2” > /usr/local/zookeeper/data/myid
在192.168.1.231服务器上创建myid文件,并设置为3,同时与zoo.cfg文件里面的server.3对应,如下:
echo “3” > /usr/local/zookeeper/data/myid
四、查看zookeeper集群
经过第三章节配置,在每台服务器上都操作完毕后,我们现在来启动每台服务器上的zookeeper。如下:
cd /usr/local/zookeeper
bin/zkServer.sh start
注意:在启动第一台zookeeper的时候可能会报错,等三台zookeeper全部启动完成之后就不会报错了。
zookeeper启动完毕后,我们来查看各个服务器上zookeeper的状态。如下:
bin/zkServer.sh status
通过上述三幅图,我们可以很明显的看出192.168.1.9和192.168.1.124这两台服务器zookeeper的状态是follow模式,192.168.1.231这台服务器zookeeper的状态是leader模式。
这说明zookeeper集群已经成功搭建。
五、连接zookeeper集群
zookeeper集群搭建完毕后,我们可以通过客户端脚本,连接到zookeeper集群上。
对于客户端来说,zookeeper集群是一个整体,连接到zookeeper集群实际上感觉在独享整个集群的服务,所以,你可以在任何一个结点上建立到服务集群的连接,例如:
bin/zkCli.sh -server 192.168.1.9:2181
通过上图,我们可以很明显的看出在192.168.1.124这台机器上连接192.168.1.9服务器上的zookeeper是正常的,而且当前根路径为/zookeeper。
到此有关zookeeper集群搭建就完全结束。
未经允许不得转载:烂泥行天下 » 烂泥:zookeeper集群搭建