Fulltext results:
- 32 Ceph 再同期
- 7b03b099-c6bb-47b7-b010-143799410dda osd id 3 type ... 7b03b099-c6bb-47b7-b010-143799410dda osd id 3 type ... 7b03b099-c6bb-47b7-b010-143799410dda osd id 3 type ... eすれば再同期されます。</color> ceph-volume lvm activate {ID} {FSID} ceph-volume lvm activate 3 7b03b099-c6
- 38 cephadmでcephインストール後、openstackで利用
- ==== cephadmにホスト登録しラベル付け ==== <code> ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph01 ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02 ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph03 ceph orch host... unt: 1 label: mgr --- service_type: osd service_id: osd_using_paths placement: hosts: - ceph01
- 19 Ceph OMAP META
- ==== 下記でMETA容量を下げる事ができる。 # ceph tell osd.<osd-id> compact ※METAが多くなりすぎるとと、IO負荷が異常に高くなるので大きくなり過ぎる前... | awk 'NR==1;NR>1{print $0|"sort -k 13 -r -n "} ' ID CLASS WEIGHT REWEIGHT SIZE RAW USE D... | awk 'NR==1;NR>1{print $0|"sort -k 13 -r -n "} ' ID CLASS WEIGHT REWEIGHT SIZE RAW USE D
- 20 Ceph PG数
- num 128 ===== 3.変更の確認 ===== <code> # ceph osd df ID CLASS WEIGHT REWEIGHT SIZE RAW USE DATA... .6 GiB 3.0 TiB 7.01 # ceph -s cluster: id: 82c91e96-51db-4813-8e53-0c0044a958f1 hea
- 24 Ceph OSD 追加
- ph/osd> </code> ===== Unable to create a new OSD id ===== <code> # ceph-volume lvm prepare --bluesto... ter --> RuntimeError: Unable to create a new OSD id </code> ==== 対応 ==== cephのキーが無いので、authキーをおいてあげれば
- 25 Ceph crash log
- rashしたデーモンがあるらしい <code> # ceph -s cluster: id: 68be67b9-b1a6-411e-8b65-c29c23a7968a hea... 象ノードで原因などを確認したのち、アラートを消す。 <code> # ceph crash ls ID
- 26 Ceph OSD reboot
- volume lvm list ## ceph-volume lvm active [osd id] [osd fsid] ceph-volume lvm active XX XXXXXXXX-XX
- 23 ceph コマンド
- (4 MiB objects) snapshot_count: 0 id: 7a30a285303f3 block_name_prefix: rbd_dat
- 26 Ceph recovery speed
- ve=9 </code> ====== 参考URL ====== [[https://www.suse.com/support/kb/doc/?id=000019693]] {{tag>Ceph}}
- 27 Ceph OSD 切り離し
- un10 274:47 /usr/bin/ceph-osd -f --cluster ceph --id 5 --setuser ceph --setgroup ceph </code> ======