发表评论取消回复
相关阅读
相关 ceph osd 迁移方案
说明 参考 [ceph mon 扩容缩容步骤][ceph mon] [ceph mgr 在线迁移 (扩容 缩容)][ceph mgr _ _] 目标 >
相关 too few PGs per OSD (21 < min 30)
too few PGs per OSD 21 < min 30 ceph version ceph version ceph -v cep
相关 ceph 删除 osd
ceph --version ceph version 12.2.13 luminous (stable) ceph osd tree 0
相关 ceph osd down
ceph --version ceph version 12.2.13 luminous (stable) ceph osd tree 3
相关 ceph osd 修复备忘
目的 > 修复故障osd 现象 检测方法 磁盘检测 > 可以通过下面命令获取当前 ceph 磁盘与 osd 对应信息 > 命令行只显示本地磁盘及对应的
相关 ceph 添加/删除OSD(ceph.conf)
之前有篇Blog记录的是通过ceph-deploy进行osd的添加以及删除操作,这里记录的是通过ceph源码安装后,通过配置ceph配置文件,而进行ceph的osd
相关 Ceph删除/添加故障OSD(ceph-deploy)
今天osd.5起不来,发现是硬盘的问题 [root@ceph-osd-1 ceph-cluster] ceph osd tree id weight
相关 ceph osd full 解决方法
操作环境 openstack icehouse ceph giant 问题描述 今日查看ceph状态的时候,提示以下信息 [root@ceph-osd
相关 Ceph-智能分布CRUSH之Object与PG与OSD
Ceph CRUSH算法(Controlled Replication Under ScalableHashing)一种基于为随机控制数据分布、复制的算法。 基本原理:
相关 ceph故障:too many PGs per OSD
原文:http://www.linuxidc.com/Linux/2017-04/142518.htm 背景 集群状态报错,如下: ceph -s
还没有评论,来说两句吧...