全文検索:
- 32 Ceph 再同期
- 止後は基本的にLVMが壊れています。</color> 下記でramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定している。 <code> modprobe brd rd_size=8192000 casadm -S -i 1 -d /dev/ram1 -c wb casadm -A -i 1 -d /dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs ... lvm list ====== osd.3 ======= [db] /dev/cas/rocksdb block device /dev
- 22 Ceph create-volume でエラー
- epared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical volume "data" successfully re... h-0 Running command: /usr/bin/chown -h ceph:ceph /dev/ssd/data Running command: /usr/bin/chown -R ceph:ceph /dev/dm-2 Running command: /usr/bin/ln -s /dev/ssd/data /var/lib/ceph/osd/ceph-0/block Running command: /us
- 24 Ceph OSD 追加
- == ceph-volume lvm prepare --bluestore --data /dev/ceph/osd --block.db cas/rocksdb --block.wal cas/w... de> # ceph-volume lvm prepare --bluestore --data /dev/ceph/osd --block.db cas/rocksdb --block.wal cas/w... ==== OSDデータを消してあげる <code> # ceph-volume lvm zap /dev/ceph/osd --> Zapping: /dev/ceph/osd Running command: /usr/bin/dd if=/dev/zero of=/dev/ceph/osd bs=1M c
- 31 ZFS IOPS limit
- :/DiskIO_Group cgset -r blkio.throttle.write_iops_device="251:16 10" DiskIO_Group # dd if=/dev/zero of=BBB bs=512 count=100 oflag=direct 100+0 records in ... <code> zfs create -V 20G pool01/zvol01 mkfs.xfs /dev/zvol/pool01/zvol01 mount /dev/zvol/pool01/zvol01 /mnt/ # lsblk| grep zd zd0 230:0 0
- 30 ZFS Linux
- ===== create pool ===== zpool create pool01 /dev/rbd0 ===== pool config ===== zfs set compress... lname] ※メモ: Ceph rbdを利用してて、もともとxfsドライブをアタッチしていた/dev/rbd0をunmapして、 その後zfsのドライブをmapしてimportしようとすると、impo... -V 10G pool01/zvol01 作成後は、zdデバイスが作成されている # ll /dev/zvol/onapp2/cc lrwxrwxrwx 1 root root 9 Jul 24 15:40 /dev/zvol/pool01/zvol01 -> ../../zd0 ==== ZVOL resiz
- 34 ZFS trim
- === zpool trim [-dw] [-r rate] [-c | -s] pool [device...] ===== オプション ===== | -d |--secure|安全な TRI... put significant stress on the underlying storage devices. This will vary depending of how well the specific device handles these commands. For lower end devices it is often possible to achieve most of the benefits
- 36 LINSTOR Bcache
- pool用意 ===== <code> zpool create DataPool raidz /dev/sdb /dev/sdc /dev/sdd </code> ==== プールの設定修正 ==== <color #ed1c24>※compress=offにすると、LINSTORでzfsthinを設定してもシンプロにな... ataPool </code> ===== 3.Bcache領域作成 ===== 今回は、/dev/sdaの余った領域をBcacheに使ってみる。 本来はnvmeのSSDを利用したりする。Optan
- 33 wipefs
- wipefs ====== ディスク内のパーティションを消す 使い方 wipefs -a /dev/sdb <code> # wipefs -h Usage: wipefs [options] <device> Wipe signatures from a device. Options: -a, --all wipe all magic strings (BE CAREFUL!
- 38 cephadmでcephインストール後、openstackで利用
- ceph01 - ceph02 - ceph03 spec: data_devices: paths: - /dev/sdb - /dev/sdc </code> ==== デプロイ ==== # ceph orch apply -i ceph_cluster_conf.yaml 下記で見ているとだん
- 03 Ubuntu GlusterFS
- ory ===== mkdir -p /gluster/volume mkfs.xfs /dev/sdb mount /dev/sdb /gluster/volume/ ===== 5.volume create ===== <code> gluster volume create k8s
- 14 ZFS ZIL
- 58CE38EE2042E679d0 1 extended device statistics r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 1.0 620.8 1.0 43256.4 0.0 0.3 0.0
- 21 Ceph マニュアルインストール
- 1 MDS=1 ../src/vstart.sh -d -n -x [[https://docs.ceph.com/docs/mimic/dev/quick_guide/]] {{tag>Ceph}}
- 23 ceph コマンド
- <code> # rbd map vol_testtest -p pool02 # mount /dev/rbd0 /onapp/backups # xfs_growfs /onapp/backups
- 28 Ceph ISCSI
- rw-r--r-- 1 root root 2244 9月 25 10:59 libtcmu-devel-1.5.2-1.el7.x86_64.rpm -rw-r--r-- 1 root root 1