本文共 6614 字,大约阅读时间需要 22 分钟。
Apache Mesos是一个集群管理器,可跨分布式应用程序或框架提供有效的资源隔离和共享。它位于应用程序层和操作系统之间,可以更加轻松地在大规模集群环境中更有效地部署和管理应用程序。它可以在动态共享节点池上运行许多应用程序
Apache Mesos将CPU,内存,存储和其他计算资源从机器(物理或虚拟)中抽象出来,使容错和弹性分布式系统能够轻松构建并有效运行。mesos的安装要求是内核版本须在3.10以上
uname -r //查看系统内核版本
setenforce 0systemctl stop firewalld.service
主机名 | IP地址 | 安装软件 |
---|---|---|
master1 | 172.16.10.28 | |
master2 | 172.16.10.44 | jdk-8u144、mesos-1.6.1、zookeeper-3.4.12 |
master3 | 172.16.10.45 | jdk-8u144、mesos-1.6.1、zookeeper-3.4.12 |
slave1 | 172.16.10.46 | jdk-8u144、mesos-1.6.1、docker |
slave1 | 172.16.10.47 | jdk-8u144、mesos-1.6.1、docker |
hostnamectl set-hostname master1 //分别修改虚拟机的主机名,一一对应,重启生效vim /etc/hosts192.168.175.132 master192.168.175.150 master1192.168.175.151 master2192.168.175.152 slave1192.168.175.153 slave2 //所有虚拟机hosts文件内容一致
tar zxf jdk-8u144-linux-x64.tar.gzmv jdk1.8.0_144 /usr/local/java
vim /etc/profileexport JAVA_HOME=/usr/local/javaexport PATH=$PATH:$JAVA_HOME/binexport CLASSPATH=$JAVA_HOME/jre/lib/ext:$JAVA_HOME/lib/tools.jarsource /etc/profile //刷新使环境变量生效
yum -y groupinstall "Development Tools"
wget http://repos.fedorapeople.org/repos/dchen/apache-maven/epel-apache-maven.repo -O /etc/yum.repos.d/epel-apache-maven.repo
yum install -y apache-maven \-- python-devel \-- python-six \-- python-virtualenv \-- java-1.8.0-openjdk-devel \-- zlib-devel \-- libcurl-devel \-- openssl-devel \-- cyrus-sasl-devel \-- apr-devel \-- subversion-devel \-- apr-util-devel \-- cyrus-sasl-md5
vim /etc/yum.repo.d/wandisco-svn.repo[WANdiscoSVN]name=WANdisco SVN Repo 1.9enabled=1baseurl=http://opensource.wandisco.com/centos/7/svn-1.9/RPMS/$basearch/gpgcheck=1gpgkey=http://opensource.wandisco.com/RPM-GPG-KEY-WANdiscoyum update systemd -y
vim /etc/profileexport MESOS_NATIVE_JAVA_LIBRARY=/usr/local/lib/libmesos.soexport MESOS_NATIVE_LIBRARY=/usr/local/lib/libmesos.sosource /etc/profile //刷新使环境变量立即生效
tar zxvf pip-1.5.4.tar.gz cd pip-1.5.4python setup.py install
pip install pytz --upgrade //网络不好容易失败。
tar zxvf mesos-0.25.0.tar.gz -C /root //解压软件包cd /root/mesos-0.25.0mkdir build //构建配置cd build../configuremake //编译make check //运行测试集make install //安装
因为在安装apache mesos时耗时一个多小时,在配置群集时都需要安装此软件,所以建议采用克隆虚拟机的方式减少用时。至此实验所需的五台服务器都安装mesos软件
mkdir /home/qtar zxvf zookeeper-3.4.6.tar.gz -C /home/q/mv /home/q/zookeeper-3.4.6 /home/q/zookeeper
三台master都需操作
cd /home/q/zookeeper/confmv zoo_sample.cfg zoo.cfg //模板和配置文件不能同时存在vim zoo.cfg dataDir=/home/q/zookeeper/datadataLogDir=/home/q/zookeeper/datalog //手动创建/data /datalog目录server.1=172.16.10.28:2888:3888server.2=172.16.10.44:2888:3888server.3=172.16.10.45:2888:3888 //2888为信息交互端口,3888为选举端口cd /home/q/zookeepermkdir data datalog //三台master都需创建
此处创建的myid文件,对应的是在上述配置文件中server.1、server2……后对应的数字,三台服务器对应修改,各不相同,一一对应。
echo 1 > data/myid //在master1上操作(/home/q/zookeeper/中)echo 2 > data/myid //在master2上操作(/home/q/zookeeper/中)echo 3 > data/myid //在master3上操作(/home/q/zookeeper/中)
在三台master服务器上安装zookeeper软件,然后启动服务,在服务开启完成之后就会开始选取leader,通过查看状态即可获取服务器的角色,**注意这里选举的leader只是zookeeper的leader,并不是mesoso的leader。
cd /home/q/zookeeper //注意切换目录./bin/zkServer.sh start conf/zoo.cfg //在三台master都启动该服务./bin/zkServer.sh status //查询角色信息
当角色为follower的zookeeper服务下线时,leader并不会重新选举,但是当角色为leader下线时,则会重新选举,产生新的leader,则实现了集群的故障转移。
./bin/zkServer.sh start conf/zoo.cfg //注意脚本所在目录
安装完成zookeeper之后,zookeeper会选举出leader帮助mesos选举leader,确定多master环境中,谁处于actived,又有哪些master是处于standby状态。就是说,在接下来分派任务时,三台master会去找zookeeper的leader询问,谁是主,谁来负责分派任务,建议在生产环境中不要将zookeeper和mesos装在同一台服务器中,实验环境,为了节省虚拟机就装在一起。
在开启该服务之后,终端会被占用,若是想在终端上继续操作,则需开启新终端进行操作。
mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 --zk=zk://172.16.10.28:2181/mesos --quorum=2//在master1上执行,在编译安装完成之后,系统会自动识别该命令,不需要创建软连接即可直接使用mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 --zk=zk://172.16.10.44:2181/mesos --quorum=2//在master2上执行mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 --zk=zk://172.16.10.45:2181/mesos --quorum=2//在maseter3执行,地址为master3地址
登陆网站之后,leader即选举完成,不论你使用的是那个master的地址访问,最终显示的都是leader页面,我在使用老版本做的时候发现,网页是会跳转的,但是新版本中改变了机制,但是实现的效果是一致的,即总是展示leader页面。
关闭leader所在服务器的mesos服务,mesos会重新指定leader,接替进行工作
在两台slave中都安装docker 并开启
yum install docker -ysystemctl start docker.servicesystemctl enable docker.service
启动服务之后同样会占用终端,若继续操作则需打开新终端,两台slave的开启命令一致
mesos-slave --containerizers="mesos,docker" --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --master=zk://172.16.10.28:2181,172.16.10.44:2181,172.16.10.45:2181/mesos --no-hostname_lookup --ip=0.0.0.0
Marathon是一个mesos框架,能够支持运行长服务,本次实验中,使用marathon向mesos发送任务。
Marathon特性:在master1中安装该服务
tar xf marathon-1.4.6.tgz -C /home/qmv /home/q/marathon-1.4.6/ /home/q/marathoncd /home/q/marathon/./bin/start --hostname 172.16.10.28 --master zk://172.16.10.28:2181,172.16.10.44:2181,172.16.10.45:2181/mesos --http_address 0.0.0.0//开启服务
在marathon上创建一个test任务,mesos会将任务分派给集群中的代理来执行任务,任务会随机发布给agent执行
在slave1上进行操作,创建一个json文件,执行安装nginx
vim nginx.json //json文件创建在/目录下{"id":"/nginx","container":{"type":"DOCKER","docker":{"image":"nginx","network":"HOST","parameters":[],"privileged":false,"forcePullImage":false}},"cpus":0.1,"mem":32.0,"instances":1}
curl -X POST -H "Content-type:application/json" http://172.16.10.28:8080/v2/apps -d@nginx.json
ps aux | grep docker //终端查询
当任务执行完成之后,即可使用分配执行任务的网址访问nginx测试首页
转载于:https://blog.51cto.com/13643643/2162906