• 内容へ移動

fl8 Wiki

ユーザ用ツール

  • ログイン

サイト用ツール

  • 最近の変更
  • メディアマネージャー
  • サイトマップ
現在位置: Dokuwiki.fl8.jp » デー
トレース: • tcで帯域制限(htb) • 24 Laravel-admin GRUD追加 • 35 pgs not deep-scrubbed in time • 33 Let's Encrypt リバースプロキシ(手動板)+ GitLab

デー

検索

以下に検索結果を表示します。

完全一致
  • 完全一致
  • 前方一致
  • 後方一致
  • 部分一致
@01_linux:13_storage
  • 全ての名前空間
全期間
  • 全期間
  • 1週間以内
  • 1カ月以内
  • 1年以内
ヒット数順に並べる
  • ヒット数順に並べる
  • 最終更新順に並べる

全文検索:

17 mon HEALTH_WARN mon xxx is using a lot of disk space
4 ヒット, 最終更新: 4年前
りすぎている状態。 \\ osdがダウンしているままで、更新がかかっていくとリカバリの為にmonがデータを保存していくようで、 \\ そのリカバリの為のデータが大きくなりすぎる。 * ※このような自体のため、monはある程度大きなディスクを用意しておく。 * ※大きくなったmonデータはosdが復旧後、自動で処理されていき小さくなります。 * ※復旧する予定の無い壊れたOSDがある場合は、先に削除しておくとこのmonデータは増えない。 ===== エラー ===== このsstファイルが大量にできてしまってディスクを
27 Ceph OSD 切り離し
3 ヒット, 最終更新: 4年前
=== 切り離し実施 ====== ※例としてosd.5(ceph003)で説明 ====== データ移行 ====== <color #ed1c24>※データ量によってかなり時間がかかる。</color> ceph -sで進行状況確認 <code> OSD=5 ceph osd out osd.$... ちゃんと切り離された事を確認 <code> # ceph osd status </code> データのリバランスがちゃんと終わったことを確認 <code> # ceph -s </code> {{
24 Ceph OSD 追加
2 ヒット, 最終更新: 4年前
art ceph-osd@4 ==== LVM prepare Error ==== 前のOSDデータが残っている場合は、エラーになる。 <code> # ceph-volume lvm prepa... , it is already prepared </code> ==== 対応 ==== OSDデータを消してあげる <code> # ceph-volume lvm zap /dev/ceph/os
32 Ceph 再同期
2 ヒット, 最終更新: 4年前
g/ceph/ceph-osd.3.log ==== Ⅱ. 普通に起動できないパターン ==== データが壊れていて、OSDが同期できない状態の場合は、全てデータを消してネットワーク越しに再同期します。 === 一度LVMを削除する === <code> # lvremote /dev/ceph/os
13 ZFS logbias
1 ヒット, 最終更新: 3年前
とんどの構成でデフォルト値が推奨されます。 logbias=throughput の値を使用すると、データベースファイルの書き込みパフォーマンスが向上する場合があります。 logbias = lat
20 Ceph PG数
1 ヒット, 最終更新: 3年前
eph PG数 ====== 配置グループ (PG) 数が十分でないと、Ceph クラスターおよびデータ分散のパフォーマンスに影響します。 これは、nearfull osds エラーメッセージの主な原因
25 Ceph crash log
1 ヒット, 最終更新: 5年前
==== ===== エラー ===== WARNINGで下記のログが表示される。 crashしたデーモンがあるらしい <code> # ceph -s cluster: id:
26 Ceph OSD reboot
1 ヒット, 最終更新: 4年前
<color #ed1c24>※Degradeなどの状態になっている時にOSD Node停止すると、データが失われる可能性があるため</color> <code> # ceph health HEALT
28 Ceph ISCSI
1 ヒット, 最終更新: 4年前
EOM_ </code> /etc/ceph/iscsi-gateway.cfgの反映には、デーモンのリロードが必要 systemctl reload rbd-target-api.servi
34 ZFS trim
1 ヒット, 最終更新: 3年前
M を開始します。安全な TRIM を実行するとき、デバイスは、trim されたブロックに保存されたデータが、消去されたことを保証します。 \\ これは、デバイスからのサポートが必要で、すべての SSD
36 LINSTOR Bcache
1 ヒット, 最終更新: 3年前
6_kubernetes_linstor#3. LINSTORインストール]] ===== 2.データ用Zpool用意 ===== <code> zpool create DataPool raid

ページ用ツール

  • 文書の表示
  • 以前のリビジョン
  • バックリンク
  • 文書の先頭へ
特に明示されていない限り、本Wikiの内容は次のライセンスに従います: CC Attribution-Noncommercial-Share Alike 4.0 International
CC Attribution-Noncommercial-Share Alike 4.0 International Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki