全文検索:
- 22 Ceph create-volume でエラー
- ksdb --osd-data /var/lib/ceph/osd/ceph-0/ --osd-uuid 2dd353ac-dcb8-48a8-88cc-cdf96b6ecfcf --setuser ce... 0 -1 bluestore(/var/lib/ceph/osd/ceph-0/) _read_fsid unparsable uuid stderr: 2020-09-02 18:30:10.303 7f600913da80 -1 rocksdb: Invalid argument: Can't parse option compaction_threads
- 32 Ceph 再同期
- k device /dev/ceph/osd block uuid Hq1Za9-hglA-4O2Z-YIgG-nB9k-xoep-Ah... cephx lockbox secret cluster fsid 68be67b9-b1a6-411e-8b65-c29c23a7968a... evice /dev/cas/rocksdb db uuid V1FXMK-ceJQ-loMb-n2oO-7kPh-kITD... VSy encrypted 0 osd fsid 7b03b099-c6bb-47b7-b010-14379941
- 26 Ceph OSD reboot
- ph-osd@XX ====== 4.対象のOSD起動 ====== <code> ## osd idと、osd fsidを確認 ceph-volume lvm list ## ceph-volume lvm active [osd id] [osd fsid] ceph-volume lvm active XX XXXXXXXX-XXXX-XXXX-XXXX-XXXXXXXXXXXX </code> ====== 5.OSD復帰後追加
- 38 cephadmでcephインストール後、openstackで利用
- ==== cephadmにホスト登録しラベル付け ==== <code> ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph01 ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02 ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph03 ceph orch host... unt: 1 label: mgr --- service_type: osd service_id: osd_using_paths placement: hosts: - ceph01
- 19 Ceph OMAP META
- ==== 下記でMETA容量を下げる事ができる。 # ceph tell osd.<osd-id> compact ※METAが多くなりすぎるとと、IO負荷が異常に高くなるので大きくなり過ぎる前... | awk 'NR==1;NR>1{print $0|"sort -k 13 -r -n "} ' ID CLASS WEIGHT REWEIGHT SIZE RAW USE D... | awk 'NR==1;NR>1{print $0|"sort -k 13 -r -n "} ' ID CLASS WEIGHT REWEIGHT SIZE RAW USE D
- 20 Ceph PG数
- num 128 ===== 3.変更の確認 ===== <code> # ceph osd df ID CLASS WEIGHT REWEIGHT SIZE RAW USE DATA... .6 GiB 3.0 TiB 7.01 # ceph -s cluster: id: 82c91e96-51db-4813-8e53-0c0044a958f1 hea
- 24 Ceph OSD 追加
- ph/osd> </code> ===== Unable to create a new OSD id ===== <code> # ceph-volume lvm prepare --bluesto... ter --> RuntimeError: Unable to create a new OSD id </code> ==== 対応 ==== cephのキーが無いので、authキーをおいてあげれば
- 25 Ceph crash log
- rashしたデーモンがあるらしい <code> # ceph -s cluster: id: 68be67b9-b1a6-411e-8b65-c29c23a7968a hea... 象ノードで原因などを確認したのち、アラートを消す。 <code> # ceph crash ls ID
- 28 Ceph Mon 追加
- = 「public_network」を追加してあげると解決 <code> [global] fsid = XXXXXXXX-XXXX-XXX-XXXX-XXXXXXXXXXX mon_initial_... cephx auth_client_required = cephx ↓ [global] fsid = XXXXXXXX-XXXX-XXX-XXXX-XXXXXXXXXXX mon_initial_
- 14 ZFS ZIL
- DEGRADED 0 0 0 raidz2-0 ONLINE 0 0 0
- 18 Ceph MON可用性
- s/red_hat_ceph_storage/4/html-single/operations_guide/index#ceph-monitors_ops|参考Redaht]] Red Hat r
- 21 Ceph マニュアルインストール
- MDS=1 ../src/vstart.sh -d -n -x [[https://docs.ceph.com/docs/mimic/dev/quick_guide/]] {{tag>Ceph}}
- 23 ceph コマンド
- (4 MiB objects) snapshot_count: 0 id: 7a30a285303f3 block_name_prefix: rbd_dat
- 26 Ceph recovery speed
- ve=9 </code> ====== 参考URL ====== [[https://www.suse.com/support/kb/doc/?id=000019693]] {{tag>Ceph}}
- 27 Ceph OSD 切り離し
- un10 274:47 /usr/bin/ceph-osd -f --cluster ceph --id 5 --setuser ceph --setgroup ceph </code> ======