全文検索:
- 23 ceph コマンド
- ===== ===== ●RBDコマンド ===== ==== 1.RBDの一覧 ==== <code> # rbd ls pool02 vol01 vol_01 vol_02 vol_test vol_03 vol_04 </code> ==== 2.RBDの使用者確認 ==== これで192.168.10.12と192.168.10.11が利用している事がわかる。 <code> # rbd status vol01 -p pool02 Watchers: w... 76642 client.394385 cookie=18446462598732840963 </code> ==== 3.RBD map ==== マッピング <code> # rbd map vo
- 38 cephadmでcephインストール後、openstackで利用
- 1.Ceph install ===== ==== cephadm install ==== <code> # curl --silent --remote-name --location https:/... /octopus/src/cephadm/cephadm # chmod +x cephadm </code> ==== add repogitory ==== <code> # echo deb https://download.ceph.com/debian-octopus/ $(lsb_release -... /release.asc' | sudo apt-key add - # apt update </code> === quincy === <code> # echo deb https://downl
- 36 LINSTOR Bcache
- #3. LINSTORインストール]] ===== 2.データ用Zpool用意 ===== <code> zpool create DataPool raidz /dev/sdb /dev/sdc /dev/sdd </code> ==== プールの設定修正 ==== <color #ed1c24>※compress=of... にすると、LINSTORでzfsthinを設定してもシンプロにならないので注意</color> <code> zfs set compress=lz4 DataPool ##zfs set compress... me=off DataPool zpool set autotrim=off DataPool </code> ==== プールの設定確認 ==== <code> zfs get compress zfs
- 28 Ceph ISCSI
- 7953dba6ec2c/centos/7/flavors/default/x86_64/]] <code> # ls -al -rw-r--r-- 1 root root 41308 9月 25 10... .x86_64.rpm # rpm -ivh tcmu-runner-* libtcmu-* </code> ==== tcmu-runner install error ==== 下記のようなエラーで... iを求められるので、入れておく。 yum -y install glusterfs-api <code> # rpm -ivh tcmu-runner-* libtcmu-* error: Failed... it) is needed by tcmu-runner-1.5.2-1.el7.x86_64 </code> ===== 2.repo ===== <code> # cat << EOM > /etc/
- 32 Ceph 再同期
- ramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定している。 <code> modprobe brd rd_size=8192000 casadm -S -i 1 -d /dev/ram1 -c wb casadm -A -i 1 -d /dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs LV VG Attr LSize Pool Origin Da... osd ceph -wi-ao---- <10.45t </code> ===== 2.再同期 ===== LVMが見えると、ceph-volume lvm l
- 27 Ceph OSD 切り離し
- === <color #ed1c24>※間違えないよう対象のOSDをよく確認</color> <code> # ps auxw| grep [o]sd ceph 1808357 5.3 19.2... ster ceph --id 5 --setuser ceph --setgroup ceph </code> ====== 切り離し実施 ====== ※例としてosd.5(ceph003)で説明 =... d1c24>※データ量によってかなり時間がかかる。</color> ceph -sで進行状況確認 <code> OSD=5 ceph osd out osd.$OSD </code> ====== osd down ====== <code> # systemctl stop ceph-osd@5 </c
- 29 Ceph Dashboard
- 。 ceph config set mgr mgr/dashboard/ssl false <code> # ceph mgr services { "dashboard": "http://c... dmin, pass:adminxxxx, role:administratorで設定する場合 <code> # ceph dashboard ac-user-create admin adminxxxx ... XXXXXXXXXXAlTOIx1Gz3az1CwqRlFe", "email": null} </code> ===== 4. prometheus + Grafana ===== これ以降はProme... mpose ==== docker-composeでprometheusとgrafanaを作成 <code> mkdir /app/grafana # cat docker-compose.yml
- 17 mon HEALTH_WARN mon xxx is using a lot of disk space
- 迫 /var/lib/ceph/mon/ceph-mon01/store.db/*.sst <code> # ceph health detail HEALTH_WARN mon mon01 is us... h-mon01/ 16G /var/lib/ceph/mon/ceph-mon01/ </code> ===== compact ===== compactかけてなくて大きくなっている場合は、下記で小さくできます。 <code> ceph tell mon.`hostname -s` compact </code> or <code> ## modify conf /etc/ceph/ceph.conf [mon] mon_c
- 24 Ceph OSD 追加
- M prepare Error ==== 前のOSDデータが残っている場合は、エラーになる。 <code> # ceph-volume lvm prepare --bluestore --data /de... rror: skipping ceph/osd, it is already prepared </code> ==== 対応 ==== OSDデータを消してあげる <code> # ceph-volume lvm zap /dev/ceph/osd --> Zapping: /dev/ceph/osd Runn... --> Zapping successful for: <LV: /dev/ceph/osd> </code> ===== Unable to create a new OSD id ===== <cod
- 22 Ceph create-volume でエラー
- h create-volume でエラー ====== ===== エラー内容 ===== <code> # ceph-volume lvm prepare --bluestore --data ssd... osd.0 --> RuntimeError: Command failed with exit code 250: /usr/bin/ceph-osd --cluster ceph --osd-objec... 8cc-cdf96b6ecfcf --setuser ceph --setgroup ceph </code> ===== 対応 ===== これすごく分かりづらいのですけど、bluestore_roc... 同じ内容でもカンマ区切りで改行してやるとcreateに成功します。 ==== NG ==== <code|/etc/ceph/ceph.conf> bluestore_rocksdb_options =
- 19 Ceph OMAP META
- 大きくなり過ぎる前に実行した方が良い。 ===== compactは数秒で終わる ===== <code> # ceph tell osd.2 compact { "elapsed_time": 6.5991835759999997 } </code> ===== compact前 ===== <code> # ceph osd df tree | awk 'NR==1;NR>1{print $0|"sort -k 13 -r -n "} ' ID ... .4 TiB 18.83 0.53 10 up osd.2 </code> ===== compact後 ===== <code> # ceph osd df tree
- 20 Ceph PG数
- sds エラーメッセージの主な原因の 1 つです。 ===== 現在のPG数確認 ===== <code> ceph osd pool get TEST-pool pg_num 32 </code> ===== 1.変更前の準備 ===== ==== scrub止める ==== ceph osd s... l set TEST-pool pgp_num 128 ===== 3.変更の確認 ===== <code> # ceph osd df ID CLASS WEIGHT REWEIGHT SIZE... 4 op/s wr recovery: 44 MiB/s, 11 objects/s </code> ===== 4.完了後 ===== ceph osd unset noscrub c
- 30 ZFS Linux
- sonlinux.org/epel/zfs-release.el8_1.noarch.rpm <code> # cat /etc/yum.repos.d/zfs.repo | grep '^\[\|^enable' [zfs] enabled=1 [zfs-kmod] enabled=1 </code> zfsとzfs-kmodをenabledにしてから、zfsインストール yum -y i... e ==== zfs set volsize=100G pool01/zvol01 確認 <code> # zfs list -o name,volsize NAME VOLSIZ... pool01 - pool01/zvol01 100G </code> ===== Error ===== <code> The ZFS modules are n
- 02 GlusterFS
- ==== 分散ストレージGlusterFS ===== xfs関係インストール ===== <code> # yum install kmod-xfs xfsprogs </code> ===== マウントできない ===== エラーメッセージ # mount -t glusterfs 192.16... the log file for more details. hostsを書いてあげれば解決 <code> #cat /etc/hosts 192.168.101.33 gluster01 </code> {{tag>GlusterFS}}
- 03 Ubuntu GlusterFS
- stall -y glusterfs-server ===== 2.hosts ===== <code> cat << EOF >> /etc/hosts 172.16.0.93 g-work01 172.16.0.153 g-work02 172.16.0.166 g-work03 EOF </code> ===== 3.peer ===== 1台目から実行 gluster peer pro... /gluster/volume/ ===== 5.volume create ===== <code> gluster volume create k8s-volume replica 2 arbit... r/volume \ g-work03:/gluster/volume \ force </code> ===== 6.mount ===== mount.glusterfs g-work0