全文検索:
- 17 LVMミラー @01_linux:99_その他
- === <code console> # pvcreate --metadatasize 50M /dev/vdc /dev/vdd /dev/vde /dev/vdf </code> ===== VG作成 ===== <code console> # vgcreate VG01 /dev/vdc /dev/vdd /dev/vde /dev
- ソフトウェアraid復旧手順 @01_linux:99_その他
- und orange|生きているディスクのパーティションをメモしておく > # fdisk -l /dev/sda\\ \\ Disk /dev/sda: 160.0 GB, 160041885696 bytes\\ 255 heads, 63 sectors/track, 19457 cylinders\\ ... Start End Blocks Id System\\ /dev/sda1 * 1 19196 154191838+ fd Linux raid autodetect\\ /dev/sda2 19197 19457 2096482+ fd
- 16 Kubernetes + DRBD Linstor @06_virtualization:05_container
- ^ name ^ IP ^ Disk ^ DRBD用 ^ |node1|172.16.0.65|/dev/sda|/dev/sdb| |node2|172.16.0.252|/dev/sda|/dev/sdb| |node3|172.16.0.234|/dev/sda|/dev/sdb| ※sdaは/用、sdbはlinstor用 ====== 2. DRBDインストール ======
- 16 LVMストライプ @01_linux:99_その他
- ==== ===== PV作成 ===== <code console> # pvcreate /dev/vdc /dev/vdd /dev/vde /dev/vdf </code> ===== VG作成 ===== <code console> # vgcreate VG01 /dev/vdc /dev/vdd /dev/vde /dev
- 32 Ceph 再同期 @01_linux:13_storage
- 止後は基本的にLVMが壊れています。</color> 下記でramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定している。 <code> modprobe brd rd_size=8192000 casadm -S -i 1 -d /dev/ram1 -c wb casadm -A -i 1 -d /dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs ... lvm list ====== osd.3 ======= [db] /dev/cas/rocksdb block device /dev
- 26 duplicate PVs @01_linux:99_その他
- pv丸ごとコピーした場合。 PVのuuidが同じになるのでエラーとなってしまう。 dd if=/dev/xvda2 of=/dev/xvdb2 ===== エラー ===== <code> # pvs WARNING: Not using lvmetad because duplicate PVs ... NG: PV 0yTzZw-rtCB-XEqN-rXsR-H9x1-BsJF-rySufQ on /dev/xvdb2 was already found on /dev/xvda2. WARNING: PV 0yTzZw-rtCB-XEqN-rXsR-H9x1-BsJF-rySufQ prefers de
- ソフトウェアraid構築 @01_linux:99_その他
- ====== ソフトウェアraid構築 ====== 下記のディスクでストライピングする場合 /dev/xvdb /dev/xvdc ===== fdiskでRAIDパーティション作成 ===== /dev/xvdb、/dev/xvdc 両方で行う。 <code console> # fdisk /dev/xvdb Command (m for help): n Command action e
- tcで帯域制限 @01_linux:01_net
- 10Mに制限 ====== bitで指定 <code console> tc qdisc add dev eth0 root tbf limit 15Kb buffer 10Kb/8 rate 10Mbi... ==== <code console> tc qdisc show qdisc tbf 8002: dev eth0 rate 50000Kbit burst 10Kb lat 819us </code> ... ===== 制限を削除 ====== <code console> tc qdisc delete dev eth0 root tbf </code> ====== 例 ====== bpsでも指定できる。 <code console> tc qdisc add dev eth0 root tbf limit 15Kb buffer 10Kb/8 rate 10Mbp
- 2023.02.05 Ubuntu ディスクサイズ変更 @50_dialy:2023:02
- t対応大容量ディスクにパーティションを追加_parted]] <code> # parted /dev/vda GNU Parted 3.4 Using /dev/vda Welcome to GNU Parted! Type 'help' to view a list of commands. (part... Model: Virtio Block Device (virtblk) Disk /dev/vda: 53.7GB Sector size (logical/physical): 512B/... Model: Virtio Block Device (virtblk) Disk /dev/vda: 53.7GB Sector size (logical/physical): 512B/
- 77 LVMのサイズ変更 @01_linux:99_その他
- stem Size Used Avail Use% Mounted on /dev/mapper/VolGroup-lv_root 50... 3% / tmpfs 32G 0 32G 0% /dev/shm /dev/sda1 485M 32M 429M 7% /boot /dev/mapper/VolGroup-lv_home 653G
- ソフトウェアRaid削除 @01_linux:99_その他
- == ソフトウェアRaid削除 ====== <code> # mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Wed Sep 9 20:26:10 2020 Raid Lev... nsistency Policy : none Name : cephdev001:0 (local to host cephdev001) UUID : 38561b34:739e61e4:ef8f037b:93e581e9
- tcで帯域制限(htb) @01_linux:01_net
- er(VMから見るとインバウンド)に制限がかかります。 <code> # tc qdisc add dev tlhdj20bhophy4 root tbf rate 50mbit latency 50ms ... bond1からアウトバウンドに制限をかけている。 Running: tc qdisc add dev bond1 root handle 1 htb Running: tc class add dev bond1 parent 1: classid 1:5 htb rate 50Mbit ceil 50Mbit mtu 33000 Running: tc filter add dev bond1 protocol ip parent 1:0 prio 1 handle 5 fw f
- 01 Macでシリアル接続 @04_mac
- al1.1が追加されている。 <box 80% left round orange> $ ls /dev/tty.* \\ /dev/tty.Bluetooth-Modem <color blue>**/dev/tty.USB-Serial0.0**</color> \\ /dev/tty.Bluetooth-PDA-Sync <color blue>**/dev/tty.USB-Serial1.1**</col
- 22 Ceph create-volume でエラー @01_linux:13_storage
- ipping ssd/data, it is already prepared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical volume "data" successfully removed [root@cephdev001 my-cluster]# lvcreate -n data -l 100%Free ssd Logical volume "data" created. [root@cephdev001 my-cluster]# ceph-volume lvm prepare --bluesto
- fio @01_linux:09_ベンチマーク
- clat (usec): min=38 , max=22072 , avg=4837.10, stdev=1451.12 lat (usec): min=38 , max=22072 , avg=4837.52, stdev=1451.14 clat percentiles (usec): | 1.00... : min= 667, max= 2674, per=1.56%, avg=825.18, stdev=180.35 lat (usec) : 50=0.04%, 100=6.87%, 250=... d_slat_max 12 read_slat_mean 13 read_slat_dev 14 read_clat_min 15 read_clat_max 16