ユーザ用ツール

サイト用ツール


サイドバー

このページの翻訳:



最近の更新



Tag Cloud

01_linux:13_storage:23_ceph_command

文書の過去の版を表示しています。


23 ceph コマンド

1.RBDの一覧

# rbd ls pool02
vol01
vol_jp010_01
vol_jp010_02
vol_jp011
vol_jp011_01
vol_jp011_02

2.RBDの使用者確認

これで192.168.10.12と192.168.10.11が利用している事がわかる。

# rbd status vol01 -p pool02
Watchers:
        watcher=192.168.10.12:0/1416759822 client.387874 cookie=18446462598732840961
        watcher=192.168.10.11:0/886076642 client.394385 cookie=18446462598732840963

3.RBD map

マッピング

# rbd map vol01 -p pool02

・アンマップ

# rbd unmap vol01 -p pool02

・マッピング確認

# rbd showmapped

4.RBDリサイズ

ボリューム: vol_testtest プール: pool02 として説明

# rbd resize vol_testtest --size 2T -p pool02

# rbd info vol_testtest -p pool02
rbd image 'vol_testtest':
        size 2 TiB in 524288 objects
        order 22 (4 MiB objects)
        snapshot_count: 0
        id: 7a30a285303f3
        block_name_prefix: rbd_data.7a30a285303f3
        format: 2
        features: layering
        op_features: 
        flags: 
        create_timestamp: Sat Mar 21 11:25:30 2020
        access_timestamp: Sat Mar 21 11:25:30 2020
        modify_timestamp: Sat Mar 21 11:25:30 2020

マウントしたままリサイズ可能。
サイズを指定しない場合は最大まで拡張

1.casのキャッシュ解除

# systemctl stop cas-onappbk
# systemctl status cas-onappbk
# rbd showmapped

2.rbdを直接マウントしxfs_groufs

# rbd map vol_testtest -p pool02
# mount /dev/rbd0 /onapp/backups 
# xfs_growfs /onapp/backups -D size
# umount /onapp/backups 
# rbd unmap vol_testtest -p pool02

3.casのキャッシュを起動

# systemctl start cas-onappbk
# systemctl status cas-onappbk
# rbd showmapped

●Cephコマンド

1.Cephの状態確認

「–watch-sec 1」で1秒ごとに更新

# ceph -s --watch-sec 1

2.OSD毎の状態確認

# ceph osd status
01_linux/13_storage/23_ceph_command.1608711361.txt.gz · 最終更新: 2020/12/23 17:16 by matsui