全文検索:
- 32 Ceph 再同期
- 止後は基本的にLVMが壊れています。</color> 下記でramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定している。 <code> modprobe brd rd_size=8192000 casadm -S -i 1 -d /dev/ram1 -c wb casadm -A -i 1 -d /dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs ... lvm list ====== osd.3 ======= [db] /dev/cas/rocksdb block device /dev
- 22 Ceph create-volume でエラー
- ipping ssd/data, it is already prepared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical volume "data" successfully removed [root@cephdev001 my-cluster]# lvcreate -n data -l 100%Free ssd Logical volume "data" created. [root@cephdev001 my-cluster]# ceph-volume lvm prepare --bluesto
- 24 Ceph OSD 追加
- == ceph-volume lvm prepare --bluestore --data /dev/ceph/osd --block.db cas/rocksdb --block.wal cas/w... de> # ceph-volume lvm prepare --bluestore --data /dev/ceph/osd --block.db cas/rocksdb --block.wal cas/w... ==== OSDデータを消してあげる <code> # ceph-volume lvm zap /dev/ceph/osd --> Zapping: /dev/ceph/osd Running command: /usr/bin/dd if=/dev/zero of=/dev/ceph/osd bs=1M c
- 31 ZFS IOPS limit
- :/DiskIO_Group cgset -r blkio.throttle.write_iops_device="251:16 10" DiskIO_Group # dd if=/dev/zero of=BBB bs=512 count=100 oflag=direct 100+0 records in ... <code> zfs create -V 20G pool01/zvol01 mkfs.xfs /dev/zvol/pool01/zvol01 mount /dev/zvol/pool01/zvol01 /mnt/ # lsblk| grep zd zd0 230:0 0
- 34 ZFS trim
- === zpool trim [-dw] [-r rate] [-c | -s] pool [device...] ===== オプション ===== | -d |--secure|安全な TRI... なしで、TRIM は、できるだけ早く実行されます。 \\ 1 秒ごとのバイト単位で表される速度は、vdev ごとに適用され、リーフ vdev ごとに異なる設定が可能です。| | -c|--cancel|指定されたデバイス、またはなにも指定されていないなら、すべての望ましいデバイスの trim をキャンセルします... put significant stress on the underlying storage devices. This will vary depending of how well the spe
- 30 ZFS Linux
- ===== create pool ===== zpool create pool01 /dev/rbd0 ===== pool config ===== zfs set compress... lname] ※メモ: Ceph rbdを利用してて、もともとxfsドライブをアタッチしていた/dev/rbd0をunmapして、 その後zfsのドライブをmapしてimportしようとすると、impo... -V 10G pool01/zvol01 作成後は、zdデバイスが作成されている # ll /dev/zvol/onapp2/cc lrwxrwxrwx 1 root root 9 Jul 24 15:40 /dev/zvol/pool01/zvol01 -> ../../zd0 ==== ZVOL resiz
- 36 LINSTOR Bcache
- pool用意 ===== <code> zpool create DataPool raidz /dev/sdb /dev/sdc /dev/sdd </code> ==== プールの設定修正 ==== <color #ed1c24>※compress=offにすると、LINSTORでzfsthinを設定してもシンプロにな... ataPool </code> ===== 3.Bcache領域作成 ===== 今回は、/dev/sdaの余った領域をBcacheに使ってみる。 本来はnvmeのSSDを利用したりする。Optan
- 33 wipefs
- wipefs ====== ディスク内のパーティションを消す 使い方 wipefs -a /dev/sdb <code> # wipefs -h Usage: wipefs [options] <device> Wipe signatures from a device. Options: -a, --all wipe all magic strings (BE CAREFUL!
- 38 cephadmでcephインストール後、openstackで利用
- ceph01 - ceph02 - ceph03 spec: data_devices: paths: - /dev/sdb - /dev/sdc </code> ==== デプロイ ==== # ceph orch apply -i ceph_cluster_conf.yaml 下記で見ているとだん
- 03 Ubuntu GlusterFS
- ory ===== mkdir -p /gluster/volume mkfs.xfs /dev/sdb mount /dev/sdb /gluster/volume/ ===== 5.volume create ===== <code> gluster volume create k8s
- 14 ZFS ZIL
- 58CE38EE2042E679d0 1 extended device statistics r/s w/s kr/s kw/s wait actv wsvc_t asvc_t %w %b device 1.0 620.8 1.0 43256.4 0.0 0.3 0.0
- 21 Ceph マニュアルインストール
- 1 MDS=1 ../src/vstart.sh -d -n -x [[https://docs.ceph.com/docs/mimic/dev/quick_guide/]] {{tag>Ceph}}
- 23 ceph コマンド
- <code> # rbd map vol_testtest -p pool02 # mount /dev/rbd0 /onapp/backups # xfs_growfs /onapp/backups
- 28 Ceph ISCSI
- rw-r--r-- 1 root root 2244 9月 25 10:59 libtcmu-devel-1.5.2-1.el7.x86_64.rpm -rw-r--r-- 1 root root 1