全文検索:
- 17 LVMミラー @01_linux:99_その他
- === <code console> # pvcreate --metadatasize 50M /dev/vdc /dev/vdd /dev/vde /dev/vdf </code> ===== VG作成 ===== <code console> # vgcreate VG01 /dev/vdc /dev/vdd /dev/vde /dev
- 32 Ceph 再同期 @01_linux:13_storage
- 止後は基本的にLVMが壊れています。</color> 下記でramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定している。 <code> modprobe brd rd_size=8192000 casadm -S -i 1 -d /dev/ram1 -c wb casadm -A -i 1 -d /dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs ... lvm list ====== osd.3 ======= [db] /dev/cas/rocksdb block device /dev
- ソフトウェアraid復旧手順 @01_linux:99_その他
- und orange|生きているディスクのパーティションをメモしておく > # fdisk -l /dev/sda\\ \\ Disk /dev/sda: 160.0 GB, 160041885696 bytes\\ 255 heads, 63 sectors/track, 19457 cylinders\\ ... = cylinders of 16065 * 512 = 8225280 bytes\\ \\ Device Boot Start End Blocks Id System\\ /dev/sda1 * 1 19196 154191838+ fd
- 26 duplicate PVs @01_linux:99_その他
- pv丸ごとコピーした場合。 PVのuuidが同じになるのでエラーとなってしまう。 dd if=/dev/xvda2 of=/dev/xvdb2 ===== エラー ===== <code> # pvs WARNING: Not using lvmetad because duplicate PVs ... NG: PV 0yTzZw-rtCB-XEqN-rXsR-H9x1-BsJF-rySufQ on /dev/xvdb2 was already found on /dev/xvda2. WARNING: PV 0yTzZw-rtCB-XEqN-rXsR-H9x1-BsJF-rySufQ prefers de
- ソフトウェアRaid削除 @01_linux:99_その他
- == ソフトウェアRaid削除 ====== <code> # mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Wed Sep 9 20:26:10 2020 Raid Lev... : 1953260544 (1862.77 GiB 2000.14 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Wed
- 16 LVMストライプ @01_linux:99_その他
- ==== ===== PV作成 ===== <code console> # pvcreate /dev/vdc /dev/vdd /dev/vde /dev/vdf </code> ===== VG作成 ===== <code console> # vgcreate VG01 /dev/vdc /dev/vdd /dev/vde /dev
- ソフトウェアraid構築 @01_linux:99_その他
- ====== ソフトウェアraid構築 ====== 下記のディスクでストライピングする場合 /dev/xvdb /dev/xvdc ===== fdiskでRAIDパーティション作成 ===== /dev/xvdb、/dev/xvdc 両方で行う。 <code console> # fdisk /dev/xvdb Command (m for help): n Command action e
- tcで帯域制限 @01_linux:01_net
- 10Mに制限 ====== bitで指定 <code console> tc qdisc add dev eth0 root tbf limit 15Kb buffer 10Kb/8 rate 10Mbi... ==== <code console> tc qdisc show qdisc tbf 8002: dev eth0 rate 50000Kbit burst 10Kb lat 819us </code> ... ===== 制限を削除 ====== <code console> tc qdisc delete dev eth0 root tbf </code> ====== 例 ====== bpsでも指定できる。 <code console> tc qdisc add dev eth0 root tbf limit 15Kb buffer 10Kb/8 rate 10Mbp
- 37 MegaCliのSmart情報 @01_linux:99_その他
- ====== 37 MegaCliのSmart情報 ====== ===== MegaCliでDevice ID確認 ===== <code> # /opt/MegaRAID/MegaCli/MegaC... Adapter #0 Enclosure Device ID: 64 Slot Number: 0 Drive's position: DiskGroup: 0, Span: 0, Arm: 0 Enclosure position: N/A Device Id: 2 WWN: 5000c5007b397b66 Sequence Number: 2... n Up Commissioned Spare : No Emergency Spare : No Device Firmware Level: CC03 Shield Counter: 0 Success
- 60 adaptech_raidのledランプを付ける. @01_linux:99_その他
- VE <LogicalDrive#> ARCCONF IDENTIFY <Controller#> DEVICE <Channel#> <ID> </code> [[http://docs.oracle.... -------------------------------------- Logical device segment information -----------------------... : Present (0,11) 9WK2YZRV00009121WR4P Device #3 Device is a Hard drive State : Online Su
- 22 Ceph create-volume でエラー @01_linux:13_storage
- ipping ssd/data, it is already prepared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical volume "data" successfully removed [root@cephdev001 my-cluster]# lvcreate -n data -l 100%Free ssd Logical volume "data" created. [root@cephdev001 my-cluster]# ceph-volume lvm prepare --bluesto
- 07 CentOS cgroupでリソースコントロール @01_linux:21_centos7
- ble cgred ===== QOS ===== ※ディスクIDは、lsblkで確認 下記は/dev/sda(8:0)を100IOPS でlimitをかける場合 [/etc/cgconfig.c... blkio { blkio.throttle.read_iops_device = "8:0 100"; blkio.throttle.write_iops_device = "8:0 100"; } } [/etc/cgrules.conf... blkio { blkio.throttle.read_iops_device = "8:0 100"; blkio.throttle.write_io
- 77 LVMのサイズ変更 @01_linux:99_その他
- stem Size Used Avail Use% Mounted on /dev/mapper/VolGroup-lv_root 50... 3% / tmpfs 32G 0 32G 0% /dev/shm /dev/sda1 485M 32M 429M 7% /boot /dev/mapper/VolGroup-lv_home 653G
- tcで帯域制限(htb) @01_linux:01_net
- er(VMから見るとインバウンド)に制限がかかります。 <code> # tc qdisc add dev tlhdj20bhophy4 root tbf rate 50mbit latency 50ms ... bond1からアウトバウンドに制限をかけている。 Running: tc qdisc add dev bond1 root handle 1 htb Running: tc class add dev bond1 parent 1: classid 1:5 htb rate 50Mbit ceil 50Mbit mtu 33000 Running: tc filter add dev bond1 protocol ip parent 1:0 prio 1 handle 5 fw f
- fio @01_linux:09_ベンチマーク
- ./configure # make # make install </code> libaio-devel yum install libaio-devel ===== ベンチマーク ===== ==== シーケンシャルwrite ==== # fio -filename=/tmp/fio2g ... clat (usec): min=38 , max=22072 , avg=4837.10, stdev=1451.12 lat (usec): min=38 , max=22072 , avg=4837.52, stdev=1451.14 clat percentiles (usec): | 1.00