时间:2021-11-29来源:www.pcxitongcheng.com作者:电脑系统城
k8s集群使用什么样的存储比较好那,我调研了一下分布式存储ceph,在这里分享给大家。
Node1: admin,osd,mon
Node2: osd,mds, client
1 2 3 4 5 6 7 8 9 |
修改主机名, 切记主机名不能出现下划线 修改主机名( /etc/hostname ): hostnamectl set - hostname node1 hostnamectl set - hostname node2 修改 /etc/hosts 加入 vim /etc/hosts 192.168.84.131 node1 192.168.84.132 node2 |
1 2 |
ssh -keygen ssh -copy- id -i id_rsa.pub root@192.168.84.131 |
1 2 3 4 5 6 |
mkfs.xfs /dev/sdb blkid /dev/sdb mkdir -p /data/osd vim /etc/fstab UUID= "57493ebb-6744-4355-a7f6-ec7538b4b65e" /data/osd xfs defaults 0 0 mount -a |
(1)配置yum源
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 |
vim /etc/yum .repos.d /ceph .repo [ceph] name=ceph baseurl=http: //mirrors .aliyun.com /ceph/rpm-jewel/el7/x86_64/ gpgcheck=0 priority=1 [ceph-noarch] name=cephnoarch baseurl=http: //mirrors .aliyun.com /ceph/rpm-jewel/el7/noarch/ gpgcheck=0 priority=1 [ceph- source ] name=Ceph source packages baseurl=http: //mirrors .aliyun.com /ceph/rpm-jewel/el7/SRPMS gpgcheck=0 priority=1 #清楚yum缓存,重新加载 yum clean all yum makecache |
(2)安装ceph-deploy管理工具
1 | yum -y install ceph-deploy |
(3)创建Monitor服务
1 2 3 |
mkdir /data/ceph cd /data/ceph/ ceph-deploy new node1 |
1 2 3 4 5 6 |
ceph.conf ceph的配置文件 ceph-deploy-ceph.log ceph日志 ceph.mon.keyring ceph monitor密钥环文件 #如果想要修改守护进程数,也就是副本数,可以在ceph.conf配置文件中添加如下行 osd_pool_default_size = 1 ##副本数 |
1 2 3 4 5 6 7 |
ceph-deploy install node1 node2 #上面这个命令是去官方服务器下载安装,相当慢一般不会这样用。之前管理节点node1配置过ceph的阿里云的源,可以直接yum安装。不过另外主机node2需要先配置yum源,再安装。 yum -y install epel-release yum -y install ceph-release yum -y install ceph ceph-radosgw |
1 2 3 |
cd /data/ceph/ ceph-deploy mon create node1 ceph-deploy gatherkeys node1 |
1 2 |
#前面已经创建过osd目录并挂载,这里只需要创建osd节点即可。 ceph-deploy osd prepare node1: /data/osd node2: /data/osd |
在不同的主机上可以看到,对应的节点会生成文件
1 2 |
#在管理节点node1上激活各节点的osd ceph-deploy osd activate node1: /data/osd node2: /data/osd |
1 2 3 4 5 |
#上图可以明显看出是权限不足的原因,直接授权777 chmod 777 -R /data/osd/ #重新执行激活 ceph-deploy osd activate node1: /data/osd node2: /data/osd |
激活完成后可以使用命令查看osd
1 | ceph-deploy osd list node1 #也可以查看多个节点,中间用空格隔开 |
1 2 3 4 5 6 7 8 9 10 11 12 13 |
#使用命令将配置文件和admin密钥同步到各个节点,以便各个节点使用ceph命令时无需指定Monitor地址和ceph.client.admin.keyring密钥。注意:还需要修改各个节点ceph.client.admin.keyring密钥的权限 ceph-deploy admin node1 node2 node1: cd /data/ceph chmod +r ceph.client.admin.keyring node2: cd /etc/ceph chmod +r ceph.client.admin.keyring 最后查看osd状态: ceph health |
1 2 3 4 5 |
ceph-deploy mds create node2 ceph mds stat 查看集群状态: ceph -s |
结语
集群状态当时忘记截图了,执行ceph -s 命令,大家只要看到包含“HEALTH_OK”的字样,集群就部署成功了。
到此这篇关于linux下ceph分布式安装使用教程的文章就介绍到这了
2023-03-17
Nginx主机域名配置实现2023-03-17
Nginx配置-日志格式配置方式2023-03-17
Apache APISIX Dashboard 未授权访问漏洞分析(CVE-2021-45232)正常项目无法访问(Linux 服务器),启动tomcat时卡在下图位置,项目无法启动。1、先检查tomcat日志、项目日志没有报错信息,且没再产生新的日志信息。2、jdk、tomcat 、 jvm 配置,服...
2023-03-15
这篇文章主要介绍了Kubernetes中Nginx服务启动失败排查流程(Error: ImagePullBackOff),本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以...
2023-03-15