全文検索:
- 20 Ceph PG数
- num変更 ===== ceph osd pool set TEST-pool pg_num 128 ceph osd pool set TEST-pool pgp_num 128 ===== 3.変更の確認 ===== <code> # ceph osd df ID CLASS WEIGH... 70 1.00000 838 GiB 63 GiB 62 GiB 4 KiB 712 MiB 775 GiB 7.50 1.07 102 up 2 hdd ... ; 22 remapped pgs data: pools: 2 pools, 129 pgs objects: 20.27k objects, 78 GiB usag
- 28 Ceph ISCSI
- vel-1.5.2-1.el7.x86_64.rpm -rw-r--r-- 1 root root 122032 9月 25 10:58 tcmu-runner-1.5.2-1.el7.x86_64.r... .xxx.xx,10.xxx.xxx.xx tpg_default_cmdsn_depth = 512 backstore_hw_queue_depth = 512 backstore_queue_depth = 512 _EOM_ </code> /etc/ceph/iscsi-gateway.cfgの反映には、デーモンのリロードが必要 systemc
- 30 ZFS Linux
- ーコミットできる。</color> zfs create -s -o volblocksize=128k -V 10G pool01/zvol01 作成後は、zdデバイスが作成されている # l
- 29 Ceph Dashboard
- ull, "roles": ["administrator"], "password": "$2b$12$iOz46vkfT.zR62AmZXXXXXXXXXXXXXXXAlTOIx1Gz3az1CwqR
- 28 Ceph Mon 追加
- t = 10.10.0.101,10.10.0.104,10.10.0.105, 10.10.10.12 auth_cluster_required = cephx auth_service_requir... t = 10.10.0.101,10.10.0.104,10.10.0.105, 10.10.10.12 auth_cluster_required = cephx auth_service_requir
- 23 ceph コマンド
- _04 </code> ==== 2.RBDの使用者確認 ==== これで192.168.10.12と192.168.10.11が利用している事がわかる。 <code> # rbd status v... 01 -p pool02 Watchers: watcher=192.168.10.12:0/1416759822 client.387874 cookie=184464625987328... /s 10.94 ms 0.00 ns one/one-28-318-0 12/s 0/s 170 KiB/s 27 KiB/s 1.53 ms 6.02