全文検索:
- 32 Ceph 再同期
- 止後は基本的にLVMが壊れています。</color> 下記でramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定している。 <code> modprobe brd rd_size=8192000 casadm -S -i 1 -d /dev/ram1 -c wb casadm -A -i 1 -d /dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs ... lvm list ====== osd.3 ======= [db] /dev/cas/rocksdb block device /dev
- 22 Ceph create-volume でエラー
- epared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical volume "data" successfully re... h-0 Running command: /usr/bin/chown -h ceph:ceph /dev/ssd/data Running command: /usr/bin/chown -R ceph:ceph /dev/dm-2 Running command: /usr/bin/ln -s /dev/ssd/data /var/lib/ceph/osd/ceph-0/block Running command: /us
- 24 Ceph OSD 追加
- == ceph-volume lvm prepare --bluestore --data /dev/ceph/osd --block.db cas/rocksdb --block.wal cas/w... de> # ceph-volume lvm prepare --bluestore --data /dev/ceph/osd --block.db cas/rocksdb --block.wal cas/w... ==== OSDデータを消してあげる <code> # ceph-volume lvm zap /dev/ceph/osd --> Zapping: /dev/ceph/osd Running command: /usr/bin/dd if=/dev/zero of=/dev/ceph/osd bs=1M c
- 31 ZFS IOPS limit
- e_iops_device="251:16 10" DiskIO_Group # dd if=/dev/zero of=BBB bs=512 count=100 oflag=direct 100+0 r... <code> zfs create -V 20G pool01/zvol01 mkfs.xfs /dev/zvol/pool01/zvol01 mount /dev/zvol/pool01/zvol01 /mnt/ # lsblk| grep zd zd0 230:0 0 ... rite_iops_device="230:0 10" DiskIO_Group # dd if=/dev/zero of=BBB bs=512 count=100 oflag=direct 100+0 r
- 30 ZFS Linux
- ===== create pool ===== zpool create pool01 /dev/rbd0 ===== pool config ===== zfs set compress... lname] ※メモ: Ceph rbdを利用してて、もともとxfsドライブをアタッチしていた/dev/rbd0をunmapして、 その後zfsのドライブをmapしてimportしようとすると、impo... -V 10G pool01/zvol01 作成後は、zdデバイスが作成されている # ll /dev/zvol/onapp2/cc lrwxrwxrwx 1 root root 9 Jul 24 15:40 /dev/zvol/pool01/zvol01 -> ../../zd0 ==== ZVOL resiz
- 36 LINSTOR Bcache
- pool用意 ===== <code> zpool create DataPool raidz /dev/sdb /dev/sdc /dev/sdd </code> ==== プールの設定修正 ==== <color #ed1c24>※compress=offにすると、LINSTORでzfsthinを設定してもシンプロにな... ataPool </code> ===== 3.Bcache領域作成 ===== 今回は、/dev/sdaの余った領域をBcacheに使ってみる。 本来はnvmeのSSDを利用したりする。Optan
- 03 Ubuntu GlusterFS
- ory ===== mkdir -p /gluster/volume mkfs.xfs /dev/sdb mount /dev/sdb /gluster/volume/ ===== 5.volume create ===== <code> gluster volume create k8s
- 38 cephadmでcephインストール後、openstackで利用
- - ceph03 spec: data_devices: paths: - /dev/sdb - /dev/sdc </code> ==== デプロイ ==== # ceph orch apply -i ceph_cluster_conf.yaml 下記で見ているとだん
- 21 Ceph マニュアルインストール
- 1 MDS=1 ../src/vstart.sh -d -n -x [[https://docs.ceph.com/docs/mimic/dev/quick_guide/]] {{tag>Ceph}}
- 23 ceph コマンド
- <code> # rbd map vol_testtest -p pool02 # mount /dev/rbd0 /onapp/backups # xfs_growfs /onapp/backups
- 33 wipefs
- wipefs ====== ディスク内のパーティションを消す 使い方 wipefs -a /dev/sdb <code> # wipefs -h Usage: wipefs [option