全文検索:
- 38 cephadmでcephインストール後、openstackで利用
- 1.Ceph install ===== ==== cephadm install ==== <code> # curl --silent --remote-name --location https:/... /octopus/src/cephadm/cephadm # chmod +x cephadm </code> ==== add repogitory ==== <code> # echo deb https://download.ceph.com/debian-octopus/ $(lsb_release -... /release.asc' | sudo apt-key add - # apt update </code> === quincy === <code> # echo deb https://downl
- 37 LINSOTR + OpenStack
- LINSOTR + OpenStack ====== ===== LINSOTR ===== <code> add-apt-repository ppa:linbit/linbit-drbd9-stack... tor-controller linstor-satellite linstor-client </code> ===== zpool作成 ===== zpool作成時 <color #ed1c24>※... ロにならないので注意</color> ===== kolla-ansible ===== <code|etc/globals.yml> kolla_base_distro: "ubuntu" open... inder_backup_driver: "nfs" cinder_backup_share: "192.168.30.101:/nfs" </code> {{tag>LINSOTR OpenStack}}
- 36 LINSTOR Bcache
- #3. LINSTORインストール]] ===== 2.データ用Zpool用意 ===== <code> zpool create DataPool raidz /dev/sdb /dev/sdc /dev/sdd </code> ==== プールの設定修正 ==== <color #ed1c24>※compress=of... にすると、LINSTORでzfsthinを設定してもシンプロにならないので注意</color> <code> zfs set compress=lz4 DataPool ##zfs set compress... me=off DataPool zpool set autotrim=off DataPool </code> ==== プールの設定確認 ==== <code> zfs get compress zfs
- 03 Ubuntu GlusterFS
- stall -y glusterfs-server ===== 2.hosts ===== <code> cat << EOF >> /etc/hosts 172.16.0.93 g-work01 172.16.0.153 g-work02 172.16.0.166 g-work03 EOF </code> ===== 3.peer ===== 1台目から実行 gluster peer pro... /gluster/volume/ ===== 5.volume create ===== <code> gluster volume create k8s-volume replica 2 arbit... r/volume \ g-work03:/gluster/volume \ force </code> ===== 6.mount ===== mount.glusterfs g-work0
- 20 Ceph PG数
- sds エラーメッセージの主な原因の 1 つです。 ===== 現在のPG数確認 ===== <code> ceph osd pool get TEST-pool pg_num 32 </code> ===== 1.変更前の準備 ===== ==== scrub止める ==== ceph osd s... l set TEST-pool pgp_num 128 ===== 3.変更の確認 ===== <code> # ceph osd df ID CLASS WEIGHT REWEIGHT SIZE... 4 op/s wr recovery: 44 MiB/s, 11 objects/s </code> ===== 4.完了後 ===== ceph osd unset noscrub c
- 19 Ceph OMAP META
- 大きくなり過ぎる前に実行した方が良い。 ===== compactは数秒で終わる ===== <code> # ceph tell osd.2 compact { "elapsed_time": 6.5991835759999997 } </code> ===== compact前 ===== <code> # ceph osd df tree | awk 'NR==1;NR>1{print $0|"sort -k 13 -r -n "} ' ID ... .4 TiB 18.83 0.53 10 up osd.2 </code> ===== compact後 ===== <code> # ceph osd df tree
- 34 ZFS trim
- atus ===== zpool status -t でtrimのstatusを確認できる。 <code> # zpool status -t pool: zpool01 state: ONLIN... dd ONLINE 0 0 0 (untrimmed) </code> ===== 使い方 ===== zpool trim [-dw] [-r rate] ... or #ed1c24>※zpool tirmは手動の方が良いかもと思います。</color> <code> # man zpool Be aware that automatic trimming of ... ng by running an on-demand (manual) TRIM periodically using the zpool trim command. </code> {{tag>ZFS}}
- 33 wipefs
- == ディスク内のパーティションを消す 使い方 wipefs -a /dev/sdb <code> # wipefs -h Usage: wipefs [options] <device> ... ables -h, --help display this help -V, --version display version </code> {{tag>ディスク}}
- 28 Ceph ISCSI
- 7953dba6ec2c/centos/7/flavors/default/x86_64/]] <code> # ls -al -rw-r--r-- 1 root root 41308 9月 25 10... .x86_64.rpm # rpm -ivh tcmu-runner-* libtcmu-* </code> ==== tcmu-runner install error ==== 下記のようなエラーで... iを求められるので、入れておく。 yum -y install glusterfs-api <code> # rpm -ivh tcmu-runner-* libtcmu-* error: Failed... it) is needed by tcmu-runner-1.5.2-1.el7.x86_64 </code> ===== 2.repo ===== <code> # cat << EOM > /etc/
- 17 mon HEALTH_WARN mon xxx is using a lot of disk space
- 迫 /var/lib/ceph/mon/ceph-mon01/store.db/*.sst <code> # ceph health detail HEALTH_WARN mon mon01 is us... h-mon01/ 16G /var/lib/ceph/mon/ceph-mon01/ </code> ===== compact ===== compactかけてなくて大きくなっている場合は、下記で小さくできます。 <code> ceph tell mon.`hostname -s` compact </code> or <code> ## modify conf /etc/ceph/ceph.conf [mon] mon_c
- 32 Ceph 再同期
- ramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定している。 <code> modprobe brd rd_size=8192000 casadm -S -i 1 -d /dev/ram1 -c wb casadm -A -i 1 -d /dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs LV VG Attr LSize Pool Origin Da... osd ceph -wi-ao---- <10.45t </code> ===== 2.再同期 ===== LVMが見えると、ceph-volume lvm l
- 30 ZFS Linux
- sonlinux.org/epel/zfs-release.el8_1.noarch.rpm <code> # cat /etc/yum.repos.d/zfs.repo | grep '^\[\|^enable' [zfs] enabled=1 [zfs-kmod] enabled=1 </code> zfsとzfs-kmodをenabledにしてから、zfsインストール yum -y i... e ==== zfs set volsize=100G pool01/zvol01 確認 <code> # zfs list -o name,volsize NAME VOLSIZ... pool01 - pool01/zvol01 100G </code> ===== Error ===== <code> The ZFS modules are n
- 31 ZFS IOPS limit
- === ZPOOLに制限かけてみる ===== ZPOOLのディスクに制限をかけても効かない <code> # zpool status pool: pool01 state: ONLINE s... bytes (51 kB) copied, 0.000876598 s, 58.4 MB/s </code> ===== ZVOLで制限をかけると効く ===== <code> zfs create -V 20G pool01/zvol01 mkfs.xfs /dev/zvol/pool01/zvol01 ... rds in 1000+0 records out 512000 bytes (512 kB) copied, 9.91114 s, 51.7 kB/s </code> {{tag>ZFS cgroup}}
- 29 Ceph Dashboard
- 。 ceph config set mgr mgr/dashboard/ssl false <code> # ceph mgr services { "dashboard": "http://c... dmin, pass:adminxxxx, role:administratorで設定する場合 <code> # ceph dashboard ac-user-create admin adminxxxx ... XXXXXXXXXXAlTOIx1Gz3az1CwqRlFe", "email": null} </code> ===== 4. prometheus + Grafana ===== これ以降はProme... mpose ==== docker-composeでprometheusとgrafanaを作成 <code> mkdir /app/grafana # cat docker-compose.yml
- 28 Ceph Mon 追加
- mgr module enable prometheus ===== エラー ===== <code> [ceph-mon02][INFO ] Running command: systemctl ... nitor: mon.ceph-mon02, might not be running yet </code> ==== 対応 ==== 「public_network」を追加してあげると解決 <code> [global] fsid = XXXXXXXX-XXXX-XXX-XXXX-XXXXXXXXXXX ... ervice_required = cephx auth_client_required = cephx public_network = 10.10.0.0/16 </code> {{tag>Ceph}}