全文検索:
- 22 Ceph create-volume でエラー
- ====== 22 Ceph create-volume でエラー ====== ===== エラー内容 ===== <code> # ceph-volume lvm prepare --bluestore --data ssd/data --block.wal
- 25 Ceph crash log
- ====== 25 Ceph crash log ====== ===== エラー ===== WARNINGで下記のログが表示される。 crashしたデーモンがあるらしい <code> # ceph... 8752Z </code> ===== 対応 ===== 対象ノードで原因などを確認したのち、アラートを消す。 <code> # ceph crash ls ID
- 28 Ceph ISCSI
- ode> ==== tcmu-runner install error ==== 下記のようなエラーでglusterfs-apiを求められるので、入れておく。 yum -y install glu... Kernel4じゃないとrbd-target-apiが起動しないので、kernel4を入れる エラー <code> 2020-09-25 13:57:26,552 CRITICAL [rbd-targ
- 02 GlusterFS
- mod-xfs xfsprogs </code> ===== マウントできない ===== エラーメッセージ # mount -t glusterfs 192.168.101.33:/glust
- 13 ZFS logbias
- FSをNFSでマウントして、fioでベンチマークを測った結果 ===== ログデバイスがSSDのミラーという事もあるのか、NFSではlatencyの方が早かった。 zfs set logbias=
- 17 mon HEALTH_WARN mon xxx is using a lot of disk space
- る予定の無い壊れたOSDがある場合は、先に削除しておくとこのmonデータは増えない。 ===== エラー ===== このsstファイルが大量にできてしまってディスクを圧迫 /var/lib/cep
- 20 Ceph PG数
- h クラスターおよびデータ分散のパフォーマンスに影響します。 これは、nearfull osds エラーメッセージの主な原因の 1 つです。 ===== 現在のPG数確認 ===== <code> c
- 24 Ceph OSD 追加
- ==== LVM prepare Error ==== 前のOSDデータが残っている場合は、エラーになる。 <code> # ceph-volume lvm prepare --bluestore
- 28 Ceph Mon 追加
- eus ceph mgr module enable prometheus ===== エラー ===== <code> [ceph-mon02][INFO ] Running comman