全文検索:
- 17 LVMミラー @01_linux:99_その他
- e> ===== VG作成 ===== <code console> # vgcreate VG01 /dev/vdc /dev/vdd /dev/vde /dev/vdf </code> ====... console> lvcreate --type raid1 -L 1G -n lvraid1 VG01 lvcreate --type raid5 -L 1G -n lvraid5 VG01 lvcreate --type raid10 -L 1G -n lvraid10 VG01 </code> ==== 確認方法 ==== <code console> # lvs -a -o +de
- 06 WireGuard @01_linux:10_network
- pubkey 事前共有キー:preshared <code> # mkdir -p ~/client01 && cd ~/client01 # wg genkey > privkey # cat privkey | wg pubkey > pubkey # wg genpsk > preshared # c... XXXXXXSUQ= #~/server/privkey の値 [Peer] # client01 PublicKey = BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBQ= #~/client01/pubkey の値 PresharedKey = ZZZZZZZZZZZZZZZZZZZZZZZZ
- 30 ZFS Linux @01_linux:13_storage
- zfs ===== create pool ===== zpool create pool01 /dev/rbd0 ===== pool config ===== zfs set compress=lz4 pool01 zfs set sync=disabled pool01 zfs set dedup=on pool01 zpool set autotrim=on pool01 ===== export ===== pool のマウントを外す zpool
- 25 LVM内のLVMをマウント @01_linux:99_その他
- LogVol01 VolGroup00 -wi-ao---- 50.00g VmVol01 VolGroup00 -wi-a----- 100.00g </code> ^ LVM ^ 用途 ^ |LogVol00| HVのSwap| |LogVol01| HVのRootディスク| |VmVol01| VM用のディスク| VM用のディスクVmVol01を見ると、このディスクもLVMパーティションになっている状態。 <code> # fdisk -l
- 22 Ceph create-volume でエラー @01_linux:13_storage
- ng ssd/data, it is already prepared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical... volume "data" successfully removed [root@cephdev001 my-cluster]# lvcreate -n data -l 100%Free ssd Logical volume "data" created. [root@cephdev001 my-cluster]# ceph-volume lvm prepare --bluestore ... eph --setgroup ceph stderr: 2020-09-02 18:30:10.301 7f600913da80 -1 bluestore(/var/lib/ceph/osd/ceph-
- 38 cephadmでcephインストール後、openstackで利用 @01_linux:13_storage
- /etc/ceph # cephadm bootstrap --mon-ip 192.168.0.101 --initial-dashboard-user admin --initial-dashboar... de> ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph01 ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02 ... ceph/ceph.pub root@ceph03 ceph orch host add ceph01 192.168.0.101 ceph orch host add ceph02 192.168.0.102 ceph orch host add ceph03 192.168.0.103 ceph o
- 21 CentOS5でPacketix VPN Client @01_linux:01_net
- cCreate コマンド - 新規仮想 LAN カードの作成 仮想 LAN カードの名前: nic01 コマンドは正常に終了しました。 VPN Client>NicList NicList... ---------+----------------------- 仮想 LAN カード名|nic01 状態 |有効 (使用可能) MAC アドレス |00AC70A... UBLIC 接続するユーザー名: PUBLIC 使用する仮想 LAN カード名: nic01 コマンドは正常に終了しました。 VPN Client>AccountList Acc... blic.softether.com (直接 TCP/IP 接続) 仮想 LAN カード名|nic01 コマンドは正常に終了しました。 </code> ==== ユーザー認証の種類がパスワードの場合
- 32_CentOSでiSCSI環境構築 @01_linux:01_net
- iSCSIクライアント(iscsi-initiator)側 == IP: 192.168.10.101 ===== ①iSCSIサーバ(iscsi-target)側 ===== ==== 1.is... === 2.iscsiターゲットの設定 ==== 大容量ディスクにパーティションをついかは [[01_linux:99_その他:35_gpt対応大容量ディスクにパーティションを追加_parted]] ... --op new --mode target --tid 0 --targetname iqn.2014-03.storage-server:sdb1 </code> === 物理デバイス登録 ===... de target --tid 0 --initiator-address 192.168.10.101 # tgtadm --lld iscsi --op bind --mode target --t
- VPNサーバ(PacketiX) @01_linux:01_net
- ====== VPNサーバ(PacketiX) ====== -2012.10.10現在 \\ **PacketiX Ver 3.02, Build 7392** ====== 下記から最新のソースを... <code console> tar zxvf vpnserver-v3.02-7392-rtm-2011.02.28-ja-linux-x86-32bit.tar.gz cd vpnserver mak... 09 12月 8 16:14 Makefile -rw------- 1 root root 4018399 12月 8 16:14 hamcore.se2 -rw------- 1 root r... ver.a </code> ===== 起動スクリプト ===== CentOS7の場合は、[[01_linux:21_centos7:03_centos7_autorun]] /etc/init
- 17 mon HEALTH_WARN mon xxx is using a lot of disk space @01_linux:13_storage
- ァイルが大量にできてしまってディスクを圧迫 /var/lib/ceph/mon/ceph-mon01/store.db/*.sst <code> # ceph health detail HEALTH_WARN mon mon01 is using a lot of disk space MON_DISK_BIG mon mon01 is using a lot of disk space mon.mon01 is 15 GiB >= mon_data_size_warn (15 GiB) # du -sh /var/li
- 31 ZFS IOPS limit @01_linux:13_storage
- ====== 31 ZFS IOPS limit ====== ZFSは、zpoolに対しては[[01_linux:21_centos7:07_cgroup|cgroup]]が効かない ZFSでIOP... スクに制限をかけても効かない <code> # zpool status pool: pool01 state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM pool01 ONLINE 0 0 0 rbd1 ONLI... OLで制限をかけると効く ===== <code> zfs create -V 20G pool01/zvol01 mkfs.xfs /dev/zvol/pool01/zvol01 mount /de
- 76 dmraid リビルド @01_linux:99_その他
- いかない。 \\ ※上手くいかない時は、再インストールするしかありません。 </color> [[01_linux:99_その他:75_about_dmraid|]] ===== 1.状態の確認 ==... number of devices in RAID set "isw_jcjeadfeb_raid01" [1/2] on /dev/sdb *** Group superset isw_jcjeadf... sistent* Active Subset name : isw_jcjeadfeb_raid01 size : 927985664 stride : 128 type : mirror s... きる。 <code console> # dmraid -R isw_jcjeadfeb_raid01 /dev/sda ERROR: isw: wrong number of devices in R
- 22 ipvsadm と ldirectord @01_linux:01_net
- ce virtual destination TCP 01:05 FIN_WAIT 21.12.143.2:64991 10.1.0.100:80 10.1.0.150:80 TCP 01:05 FIN_WAIT 21.12.143.2:64989 10.1.0.100:80 10.1.0.150:80 TCP 01:05 FIN_WAIT 21.12.143.2:64983 10.1.0.100:80 10.1.0.160:80 TCP 01:06 FIN_WAIT 21.12.143.2:65001 10.1.0.100:80
- 16 LVMストライプ @01_linux:99_その他
- e> ===== VG作成 ===== <code console> # vgcreate VG01 /dev/vdc /dev/vdd /dev/vde /dev/vdf </code> ====... ode console> # lvcreate -L 1G -i2 -n lv_stripe2 VG01 </code> === ストライプサイズ指定 === ストライプサイズ256K <code c... sole> # lvcreate -L 1G -I 256 -i2 -n lv_stripe2 VG01 </code> === PV指定 === <code console> # lvcreate -L 1G -i2 -n lv_stripe2 VG01 /dev/vde /dev/vdf </code> === 3台構成 === <code co
- 56 PCS コマンド @01_linux:01_net
- e: pcs_cluster Last updated: Fri Mar 31 13:40:39 2017 Last change: Fri Mar 31 13:40:28 2017 by hacluster via crmd on node01 Stack: corosync Current DC: dbs5004 - partition with quorum Version:... configured 5 Resources configured Online: [ node01 node02 ] Full list of resources: Resource Grou