全文検索:
- 27 Ceph OSD 切り離し
- 7 Ceph OSD 切り離し ====== ====== 対象のOSDを確認 ====== <color #ed1c24>※間違えないよう対象のOSDをよく確認</color> <code> # ps auxw| grep [o]sd ceph 1808357 5.3 19.2 6922516 312... === ※例としてosd.5(ceph003)で説明 ====== データ移行 ====== <color #ed1c24>※データ量によってかなり時間がかかる。</color> ceph -sで進行状況確認 <code> OSD=5 ceph osd out osd.$OSD </code> ======
- 30 ZFS Linux
- ントを外す zpool export pool01 ===== import ===== <color #22b14c>※pool名のrenameは無いが、import時に[new poolname]を指定してpool名を変更できる</color> zpool import pool01 [new poolname] ※メモ: Cep... ===== ZVOL ===== 下記の例では、10Gのpoo/01/zvol01を作成する。 <color #b5e61d>※「-s」でスパースzvolを作成。オーバーコミットできる。</color> zfs create -s -o volblocksize=128k -V 10G pool01/zvol01
- 32 Ceph 再同期
- ====== 32 Ceph 再同期 ====== ===== 1.LVM設定 ===== <color #ff7f27>※RAMディスクを利用しているため、サーバ強制停止後は基本的にLVMが壊れています。</color> 下記でramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定し... /dev/sdb </code> ==== Ⅰ. OSDをそのまま起動のパターン ==== <color #22b14c>もしも、rocksdb/waldb/osdなど壊れてなければ、このままOSDをactivateすれば再同期されます。</color> ceph-volume lvm activate {ID} {FSID} ceph-
- 15 LVMの自動アクティベート
- あって、ここにVGやLVを羅列しておくと そのVG/LVは起動時に自動でアクティベートされます。 <color #ed1c24>逆にauto_activation_volume_list に何も設定されてない状態だと、全てのLVMが自動でアクティベートされます。</color> 自動でアクティベートされないようにしたい場合は、 auto_activation_volum
- 20 Ceph PG数
- placedが下記の値(defautl: 5%)を下回ると、次のPGをremapし始める。 \\ <color #ed1c24>※延々終わらないように見えるが、全部のPGをremapするとちゃんと終わる。</color> \\ target_max_misplaced_ratio <code> # ceph con
- 21 Ceph マニュアルインストール
- ビルド ===== ./do_cmake.sh cd build make j4 <color #ed1c24>※CPU(Xeon(R) Silver 4215 @ 2.50GHz)の場合1時間程度(マルチスレッドじゃない場合は、この4倍かかる)</color> make j4 real 67m25.470s user 196m36.
- 26 Ceph recovery speed
- ====== 26 Ceph recovery speed ====== <color #ed1c24>※速度を上げると、OSDが落ちる原因になるので、十分に様子見しながら</color> ===== デフォルト設定 ===== default: osd_recovery_max_activ
- 26 Ceph OSD reboot
- ====== OSD Node停止前に、ちゃんとHEALTH_OK状態を確認しておく。 \\ <color #ed1c24>※Degradeなどの状態になっている時にOSD Node停止すると、データが失われる可能性があるため</color> <code> # ceph health HEALTH_OK </code> ======
- 34 ZFS trim
- が返る前に trim されることが終わるまで、待ちます。| ===== Man ===== <color #ed1c24>※zpool tirmは手動の方が良いかもと思います。</color> <code> # man zpool Be aware that automatic trimming of rec
- 36 LINSTOR Bcache
- b /dev/sdc /dev/sdd </code> ==== プールの設定修正 ==== <color #ed1c24>※compress=offにすると、LINSTORでzfsthinを設定してもシンプロにならないので注意</color> <code> zfs set compress=lz4 DataPool ##zfs set
- 37 LINSOTR + OpenStack
- r-client </code> ===== zpool作成 ===== zpool作成時 <color #ed1c24>※compress=offにすると、LINSTORでzfsthinを設定してもシンプロにならないので注意</color> ===== kolla-ansible ===== <code|etc/globals.