全文検索:
- 17 LVMミラー @01_linux:99_その他
- === <code console> # pvcreate --metadatasize 50M /dev/vdc /dev/vdd /dev/vde /dev/vdf </code> ===== VG作成 ===== <code console> # vgcreate VG01 /dev/vdc /dev/vdd /dev/vde /dev
- ソフトウェアraid復旧手順 @01_linux:99_その他
- und orange|生きているディスクのパーティションをメモしておく > # fdisk -l /dev/sda\\ \\ Disk /dev/sda: 160.0 GB, 160041885696 bytes\\ 255 heads, 63 sectors/track, 19457 cylinders\\ ... Start End Blocks Id System\\ /dev/sda1 * 1 19196 154191838+ fd Linux raid autodetect\\ /dev/sda2 19197 19457 2096482+ fd
- 16 LVMストライプ @01_linux:99_その他
- ==== ===== PV作成 ===== <code console> # pvcreate /dev/vdc /dev/vdd /dev/vde /dev/vdf </code> ===== VG作成 ===== <code console> # vgcreate VG01 /dev/vdc /dev/vdd /dev/vde /dev
- 32 Ceph 再同期 @01_linux:13_storage
- 止後は基本的にLVMが壊れています。</color> 下記でramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定している。 <code> modprobe brd rd_size=8192000 casadm -S -i 1 -d /dev/ram1 -c wb casadm -A -i 1 -d /dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs ... lvm list ====== osd.3 ======= [db] /dev/cas/rocksdb block device /dev
- 26 duplicate PVs @01_linux:99_その他
- pv丸ごとコピーした場合。 PVのuuidが同じになるのでエラーとなってしまう。 dd if=/dev/xvda2 of=/dev/xvdb2 ===== エラー ===== <code> # pvs WARNING: Not using lvmetad because duplicate PVs ... NG: PV 0yTzZw-rtCB-XEqN-rXsR-H9x1-BsJF-rySufQ on /dev/xvdb2 was already found on /dev/xvda2. WARNING: PV 0yTzZw-rtCB-XEqN-rXsR-H9x1-BsJF-rySufQ prefers de
- ソフトウェアraid構築 @01_linux:99_その他
- ====== ソフトウェアraid構築 ====== 下記のディスクでストライピングする場合 /dev/xvdb /dev/xvdc ===== fdiskでRAIDパーティション作成 ===== /dev/xvdb、/dev/xvdc 両方で行う。 <code console> # fdisk /dev/xvdb Command (m for help): n Command action e
- tcで帯域制限 @01_linux:01_net
- 10Mに制限 ====== bitで指定 <code console> tc qdisc add dev eth0 root tbf limit 15Kb buffer 10Kb/8 rate 10Mbi... ==== <code console> tc qdisc show qdisc tbf 8002: dev eth0 rate 50000Kbit burst 10Kb lat 819us </code> ... ===== 制限を削除 ====== <code console> tc qdisc delete dev eth0 root tbf </code> ====== 例 ====== bpsでも指定できる。 <code console> tc qdisc add dev eth0 root tbf limit 15Kb buffer 10Kb/8 rate 10Mbp
- 77 LVMのサイズ変更 @01_linux:99_その他
- stem Size Used Avail Use% Mounted on /dev/mapper/VolGroup-lv_root 50... 3% / tmpfs 32G 0 32G 0% /dev/shm /dev/sda1 485M 32M 429M 7% /boot /dev/mapper/VolGroup-lv_home 653G
- ソフトウェアRaid削除 @01_linux:99_その他
- == ソフトウェアRaid削除 ====== <code> # mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Wed Sep 9 20:26:10 2020 Raid Lev... nsistency Policy : none Name : cephdev001:0 (local to host cephdev001) UUID : 38561b34:739e61e4:ef8f037b:93e581e9
- tcで帯域制限(htb) @01_linux:01_net
- er(VMから見るとインバウンド)に制限がかかります。 <code> # tc qdisc add dev tlhdj20bhophy4 root tbf rate 50mbit latency 50ms ... bond1からアウトバウンドに制限をかけている。 Running: tc qdisc add dev bond1 root handle 1 htb Running: tc class add dev bond1 parent 1: classid 1:5 htb rate 50Mbit ceil 50Mbit mtu 33000 Running: tc filter add dev bond1 protocol ip parent 1:0 prio 1 handle 5 fw f
- 22 Ceph create-volume でエラー @01_linux:13_storage
- ipping ssd/data, it is already prepared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical volume "data" successfully removed [root@cephdev001 my-cluster]# lvcreate -n data -l 100%Free ssd Logical volume "data" created. [root@cephdev001 my-cluster]# ceph-volume lvm prepare --bluesto
- fio @01_linux:09_ベンチマーク
- clat (usec): min=38 , max=22072 , avg=4837.10, stdev=1451.12 lat (usec): min=38 , max=22072 , avg=4837.52, stdev=1451.14 clat percentiles (usec): | 1.00... : min= 667, max= 2674, per=1.56%, avg=825.18, stdev=180.35 lat (usec) : 50=0.04%, 100=6.87%, 250=... d_slat_max 12 read_slat_mean 13 read_slat_dev 14 read_clat_min 15 read_clat_max 16
- 11 mountでエラー @01_linux:99_その他
- Running: mount -o data=writeback,errors=continue /dev/mapper/hogehoge /mnt/hogehoge mount: wrong fs type, bad option, bad superblock on /dev/mapper/hogehoge, missing codepage or othe... ■EXT3だとマウントできない <code console> # mount -t ext3 /dev/mapper/hogehoge mount: wrong fs type, bad option, bad superblock on /dev/mapper/hogehoge, missing codepage or other
- 78 dmraidメタ情報削除 @01_linux:99_その他
- ===== dmraidコマンドで消す ===== <code> # dmraid -r -E /dev/sdb # dmraid -r -E /dev/sdc # fdisk /dev/sdb d w q </code> ===== dmraidで消せない場合、その① ===== <code> # mdadm --zero-superblock /dev/sdb # mdadm --zero-superblock /dev/sdc </code> =
- リアルタイムでトラフィックを見る @01_linux:99_その他
- > # virsh dumpxml test_01|grep vnet <target dev='vnet1'/> </code> bridgeを指定して実行 <code console> i=vnet1 while : ; do _T1=$( grep $i: /proc/net/dev | cut -d: -f 2|awk '{print $1}'); \ sleep 1; _T2=$( grep $i: /proc/net/dev | cut -d: -f 2|awk '{print $1}'); \ echo "$(expr ... de> i=eth0 while : ; do _R1=$( grep $i: /proc/net/dev | cut -d: -f 2|awk '{print $1}'); \ sleep 1; _R2=