Ceph 报错
ceph-deploy mon create-initial报错12345678[ceph_deploy.mds][INFO ] Distro info: CentOS Linux 7.3.1611 Core[ceph_deploy.mds][DEBUG ] remote host will use systemd[ceph_deploy.mds][DEBUG ] deploying mds bootstrap to k8s-node1[k8s-node1][DEBUG ] write cluster configuration to /etc/ceph/{cluster}.conf[ceph_deploy.mds][ERROR ] RuntimeError: config file /etc/ceph/ceph.conf exists with different content; use --overwrite-conf to overwrite[ceph_deploy] [ERROR ] GenericError: Failed to create 1 MD ...
Hexo数据迁移
新环境部署1. 安装Git1yum -y install git
2. 部署Node.js环境123456789mkdir /app && cd /appwget https://npm.taobao.org/mirrors/node/v10.16.0/node-v10.16.0-linux-x64.tar.xztar xf node-v10.16.0-linux-x64.tar.xzln -s node-v10.16.0-linux-x64 nodejscd /app/nodejs/bin./node -vln -s /app/nodejs/bin/node /usr/local/bin/node ln -s /app/nodejs/bin/npm /usr/local/bin/npm
3.部 ...
MySQL双主双从
服务器信息
IP
Hostname
module
172.16.1.11
master-A
mysql
172.16.1.12
master-B
mysql
172.16.1.13
slave-A
mysql
172.16.1.14
slave-B
mysql
实现结果:往任意主库修改数据,四台节点均可以实现数据同步
配置Master-A12345678vim /etc/my.cnf[mysqld]添加:server_id=1log_bin=mysql-binlog-slave-updates=onauto_increment_offset=1auto_increment_increment=2
解释server_id=1 # 设置集群中的节点唯一标识log_bin=mysql-bin # 开启二进制日志文件,并指定二进制日志文件名字以及存放路径log-slave-updates=on # 从节点同步的数据操作写入到二进制日志文件中auto_increment_off ...
部署MySQL
安装MySQL依赖软件1yum -y install ncurses-libs ncurses-base ncurses-devel gcc gcc-c++
上传cmake、mysql源码包
解压cmake源码包1234tar zxf cmake-3.15.1.tar.gz -C /usr/src/cd /usr/src/cmake-3.15.1/# 编译安装./configure && gmake && gmake install
创建系统用户1useradd -r mysql -s /sbin/nologin
解压MySQL源码包1tar zxf mysql-5.6.33.tar.gz -C /usr/src/
配置安装12cd /usr/src/mysql-5.6.33/cmake -DCMAKE_INSTALL_PREFIX=/usr/loc ...
Ceph操作指令
查看ceph健康状态12[root@ceph1 ceph]# ceph healthHEALTH_OK
查看ceph集群quorum状态1[root@ceph1 ceph]# ceph quorum_status --format json-pretty
查看OSD状态12345[root@ceph1 ceph]# ceph osd treeID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 0.01949 root default -3 0.01949 host ceph1 0 hdd 0.01949 osd.0 up 1.00000 1.00000
创建pool存储池1[root@ceph1 ceph]# ceph osd pool create data 64
这里强制选择pg_num和pgp_num,因为ceph集群不能自 ...
Cephfs文件系统
服务器信息
主机名
IP地址
角色
ceph1
172.16.1.12
deploy,mon,mds,mgr,osd
ceph2
172.16.1.13
osd
ceph3
172.16.1.14
osd
ceph4
172.16.1.15
Client
ceph5
172.16.1.16
Client
deploy节点执行启用cephfs1[root@ceph1 ceph]# ceph-deploy mds create ceph1
创建pool12345[root@ceph1 ceph]# ceph osd pool create cephfs_data 128[root@ceph1 ceph]# ceph osd pool create cephfs_metadata 128# cephfs_data为数据池# metadata_data为元数据池
启动用pool1[root@ceph1 ceph]# ceph fs new cephfs cephfs_metadata cephfs_data
查看cephfs12[root@ceph1 ceph]# ...
Ceph创建rbd块设备
判断该设备内核是否支持rbd1234[root@ceph1 ~]# modprobe rbd# 无返回信息说明支持!# 如有错误信息说明不支持,赶快升级内核吧~
创建pool存储池1[root@ceph1 ~]# ceph osd pool create myrbd 512 512
创建rbd块设备1234567[root@ceph1 ~]# rbd create myrbd/rbd1 --size 2048000 --image-feature layering# /斜杠前是:pool存储池名称# /斜杠后是:块设备名称[root@ceph1 ~]# rbd -p myrbd lsrbd1
查看块设备的详细信息
1234567891011[root@ceph1 ~]# rbd info myrbd/rbd1rbd image 'rbd1': size 200 GiB in 51200 objects // 存储空间 order 22 (4 MiB objects) id: 46546b8b4567 block ...
部署Ceph集群
官方文档:http://docs.ceph.org.cn/服务器信息
IP
Hostname
module
172.16.1.12
ceph1
ceph-deploy,osd,mgr,mon(控制节点)
172.16.1.13
ceph2
osd,mon
172.16.1.14
ceph3
osd,mon
Ceph-Deploy
ceph-deploy应该部署在专用的节点,也就是管理节点AdminHost上。
ceph-deploy无法处理客户端工具,如果你需要使用Ceph集群,需要自己安装和配置客户端,这个客户端可能是一个内核模块(librbd),也可能只是一个命令行工具。
前期准备关闭selinux
12# 三台节点统一配置[root@ceph1 ~]# setenforce 0
ssh免密登陆12345# ceph1管理端配置即可[root@ceph1 ~]# ssh-keygen[root@ceph1 ~]# ssh-copy-id 172.16.1.12[root@ceph1 ~]# ssh-copy-id 172.16.1.13[root@ceph1 ...
认识分布式存储Ceph
分布式存储Ceph技术认识分布式存储
分布式存储系统,是通过网络讲述库分散存储在多台独立的设备上;
分布式存储系统的特性1234567891011121314151617181920可扩展分布式存储系统可以扩展到几百台甚至几千台的集群规模,而且随着集群规模的增长,系统整体性能表现为线性增长,分布式存储的水平扩展有以下几个特征: 1)节点扩展后,旧数据会自动迁移到新节点,实现负载均衡,避免单点过热的情况出现; 2)水平扩展只需要将新节点和原有集群连接到同一网络,整个过程不会对业务造成影响; 3)当节点被添加到集群,集群系统的整体容量和性能也随着之线性扩展,此后新节点的资源就会被管理平台接管,被用于分配或者回收;低成本分布式存储系统的自动容错、自动负载均衡机制使其可以构建在普通的PC机之上,另外,线性扩展能力也是的增加、减少机器非常方便,可以实现自动运维;高性能无论是针对整个集群还是单台服务器,都要求分布式存储系统具备高性能;易用分布式存储系统需要能够提供易用的对外接口,另外,也要求具备完善的监控、运维工具、并能够与其他系统集成;易管理可通过一个简单的web界面就可以对整个系统进行配置管 ...
Keepalived
Keepalived:最初给LVS负载均衡集群中的服务节点提供健康检查功能,后来因为集成了VRRP协议,可以实现解决服务节点的单点故障,提高服务的可靠性,支持高可用集群的部署
VRRP协议
VRRP(虚拟路由冗余协议):由多台物理路由器组成一台高性能的虚拟路由器,多个物理路由器之间通过优先级举出主节点,其它节点为从节点,从节点不工作只接收主节点发来的VRRP通告,主节点管理虚拟IP并对外提供服务,主节点定时给从节点发送VRRP通告,通告中包含着主节点的优先级,当从节点在计时器的时间到了之后接收不到主机点发送的VRRP通告时,就认为主节点不可用,此时,从节点就会根据优先级选举出新的主节点并接管虚拟IP对外提供服务,这个切换过程对于客户端来说是透明的,这样解决了单点故障,保证了服务的可用性
无故ARP(免费ARP):特点是arp广播包中源IP目的IP源MAC目的MAC都是发送方的,也就是都是虚拟IP和虚拟MAC,
作用:
1.可以检测是否有地址冲突
2.可以更新终端设备的ARP缓存表
实验环境:
系统
IP
服务
Centos7.4
1.1.1.1
keepalived主
C ...
