• 内容へ移動

fl8 Wiki

ユーザ用ツール

  • ログイン

サイト用ツール

  • 最近の変更
  • メディアマネージャー
  • サイトマップ
現在位置: Dokuwiki.fl8.jp » dev
トレース:

dev

検索

以下に検索結果を表示します。

完全一致
  • 完全一致
  • 前方一致
  • 後方一致
  • 部分一致
@01_linux:13_storage
  • 全ての名前空間
全期間
  • 全期間
  • 1週間以内
  • 1カ月以内
  • 1年以内
ヒット数順に並べる
  • ヒット数順に並べる
  • 最終更新順に並べる

全文検索:

32 Ceph 再同期
21 ヒット, 最終更新: 4年前
止後は基本的にLVMが壊れています。</color> 下記でramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定している。 <code> modprobe brd rd_size=8192000 casadm -S -i 1 -d /dev/ram1 -c wb casadm -A -i 1 -d /dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs ... lvm list ====== osd.3 ======= [db] /dev/cas/rocksdb block device /dev
22 Ceph create-volume でエラー
12 ヒット, 最終更新: 4年前
epared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical volume "data" successfully re... h-0 Running command: /usr/bin/chown -h ceph:ceph /dev/ssd/data Running command: /usr/bin/chown -R ceph:ceph /dev/dm-2 Running command: /usr/bin/ln -s /dev/ssd/data /var/lib/ceph/osd/ceph-0/block Running command: /us
24 Ceph OSD 追加
8 ヒット, 最終更新: 4年前
== ceph-volume lvm prepare --bluestore --data /dev/ceph/osd --block.db cas/rocksdb --block.wal cas/w... de> # ceph-volume lvm prepare --bluestore --data /dev/ceph/osd --block.db cas/rocksdb --block.wal cas/w... ==== OSDデータを消してあげる <code> # ceph-volume lvm zap /dev/ceph/osd --> Zapping: /dev/ceph/osd Running command: /usr/bin/dd if=/dev/zero of=/dev/ceph/osd bs=1M c
31 ZFS IOPS limit
5 ヒット, 最終更新: 4年前
e_iops_device="251:16 10" DiskIO_Group # dd if=/dev/zero of=BBB bs=512 count=100 oflag=direct 100+0 r... <code> zfs create -V 20G pool01/zvol01 mkfs.xfs /dev/zvol/pool01/zvol01 mount /dev/zvol/pool01/zvol01 /mnt/ # lsblk| grep zd zd0 230:0 0 ... rite_iops_device="230:0 10" DiskIO_Group # dd if=/dev/zero of=BBB bs=512 count=100 oflag=direct 100+0 r
30 ZFS Linux
4 ヒット, 最終更新: 4年前
===== create pool ===== zpool create pool01 /dev/rbd0 ===== pool config ===== zfs set compress... lname] ※メモ: Ceph rbdを利用してて、もともとxfsドライブをアタッチしていた/dev/rbd0をunmapして、 その後zfsのドライブをmapしてimportしようとすると、impo... -V 10G pool01/zvol01 作成後は、zdデバイスが作成されている # ll /dev/zvol/onapp2/cc lrwxrwxrwx 1 root root 9 Jul 24 15:40 /dev/zvol/pool01/zvol01 -> ../../zd0 ==== ZVOL resiz
36 LINSTOR Bcache
4 ヒット, 最終更新: 3年前
pool用意 ===== <code> zpool create DataPool raidz /dev/sdb /dev/sdc /dev/sdd </code> ==== プールの設定修正 ==== <color #ed1c24>※compress=offにすると、LINSTORでzfsthinを設定してもシンプロにな... ataPool </code> ===== 3.Bcache領域作成 ===== 今回は、/dev/sdaの余った領域をBcacheに使ってみる。 本来はnvmeのSSDを利用したりする。Optan
03 Ubuntu GlusterFS
2 ヒット, 最終更新: 3年前
ory ===== mkdir -p /gluster/volume mkfs.xfs /dev/sdb mount /dev/sdb /gluster/volume/ ===== 5.volume create ===== <code> gluster volume create k8s
38 cephadmでcephインストール後、openstackで利用
2 ヒット, 最終更新: 3年前
- ceph03 spec: data_devices: paths: - /dev/sdb - /dev/sdc </code> ==== デプロイ ==== # ceph orch apply -i ceph_cluster_conf.yaml 下記で見ているとだん
21 Ceph マニュアルインストール
1 ヒット, 最終更新: 3年前
1 MDS=1 ../src/vstart.sh -d -n -x [[https://docs.ceph.com/docs/mimic/dev/quick_guide/]] {{tag>Ceph}}
23 ceph コマンド
1 ヒット, 最終更新: 4年前
<code> # rbd map vol_testtest -p pool02 # mount /dev/rbd0 /onapp/backups # xfs_growfs /onapp/backups
33 wipefs
1 ヒット, 最終更新: 3年前
wipefs ====== ディスク内のパーティションを消す 使い方 wipefs -a /dev/sdb <code> # wipefs -h Usage: wipefs [option

ページ用ツール

  • 文書の表示
  • 以前のリビジョン
  • バックリンク
  • 文書の先頭へ
特に明示されていない限り、本Wikiの内容は次のライセンスに従います: CC Attribution-Noncommercial-Share Alike 4.0 International
CC Attribution-Noncommercial-Share Alike 4.0 International Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki