全文検索:
- 17 mon HEALTH_WARN mon xxx is using a lot of disk space
- りすぎている状態。 \\ osdがダウンしているままで、更新がかかっていくとリカバリの為にmonがデータを保存していくようで、 \\ そのリカバリの為のデータが大きくなりすぎる。 * ※このような自体のため、monはある程度大きなディスクを用意しておく。 * ※大きくなったmonデータはosdが復旧後、自動で処理されていき小さくなります。 * ※復旧する予定の無い壊れたOSDがある場合は、先に削除しておくとこのmonデータは増えない。 ===== エラー ===== このsstファイルが大量にできてしまってディスクを
- 27 Ceph OSD 切り離し
- === 切り離し実施 ====== ※例としてosd.5(ceph003)で説明 ====== データ移行 ====== <color #ed1c24>※データ量によってかなり時間がかかる。</color> ceph -sで進行状況確認 <code> OSD=5 ceph osd out osd.$... ちゃんと切り離された事を確認 <code> # ceph osd status </code> データのリバランスがちゃんと終わったことを確認 <code> # ceph -s </code> {{
- 24 Ceph OSD 追加
- art ceph-osd@4 ==== LVM prepare Error ==== 前のOSDデータが残っている場合は、エラーになる。 <code> # ceph-volume lvm prepa... , it is already prepared </code> ==== 対応 ==== OSDデータを消してあげる <code> # ceph-volume lvm zap /dev/ceph/os
- 32 Ceph 再同期
- g/ceph/ceph-osd.3.log ==== Ⅱ. 普通に起動できないパターン ==== データが壊れていて、OSDが同期できない状態の場合は、全てデータを消してネットワーク越しに再同期します。 === 一度LVMを削除する === <code> # lvremote /dev/ceph/os
- 13 ZFS logbias
- とんどの構成でデフォルト値が推奨されます。 logbias=throughput の値を使用すると、データベースファイルの書き込みパフォーマンスが向上する場合があります。 logbias = lat
- 20 Ceph PG数
- eph PG数 ====== 配置グループ (PG) 数が十分でないと、Ceph クラスターおよびデータ分散のパフォーマンスに影響します。 これは、nearfull osds エラーメッセージの主な原因
- 25 Ceph crash log
- ==== ===== エラー ===== WARNINGで下記のログが表示される。 crashしたデーモンがあるらしい <code> # ceph -s cluster: id:
- 26 Ceph OSD reboot
- <color #ed1c24>※Degradeなどの状態になっている時にOSD Node停止すると、データが失われる可能性があるため</color> <code> # ceph health HEALT
- 28 Ceph ISCSI
- EOM_ </code> /etc/ceph/iscsi-gateway.cfgの反映には、デーモンのリロードが必要 systemctl reload rbd-target-api.servi
- 34 ZFS trim
- M を開始します。安全な TRIM を実行するとき、デバイスは、trim されたブロックに保存されたデータが、消去されたことを保証します。 \\ これは、デバイスからのサポートが必要で、すべての SSD
- 36 LINSTOR Bcache
- 6_kubernetes_linstor#3. LINSTORインストール]] ===== 2.データ用Zpool用意 ===== <code> zpool create DataPool raid