全文検索:
- 17 LVMミラー @01_linux:99_その他
- e> ===== VG作成 ===== <code console> # vgcreate VG01 /dev/vdc /dev/vdd /dev/vde /dev/vdf </code> ====... console> lvcreate --type raid1 -L 1G -n lvraid1 VG01 lvcreate --type raid5 -L 1G -n lvraid5 VG01 lvcreate --type raid10 -L 1G -n lvraid10 VG01 </code> ==== 確認方法 ==== <code console> # lvs -a -o +de
- 16 Kubernetes + DRBD Linstor @06_virtualization:05_container
- 6a0aead1e875665e2fb68852d94eb build by root@worker01, 2022-04-15 21:43:08 Transports (api:17): tcp (9.... スを作成 linstor resource-definition create TestVol01 linstor volume-definition create TestVol01 1G linstor resource create TestVol01 -s linstor-pool --auto-place 3 たとえば、node2,node3にリソースを作成して、nod
- 2021.09.25 PCS NFS @50_dialy:2021:09
- PCS NFS ====== ===== NFSクラスタを組む方法 ===== nfsserv01, nfsserv02でCeph RBDをmapして、ZFSとしてインポートしたものをNFSクラスタで利用する設定 <code> pcs cluster auth nfsserv01 nfsserv02 <> /dev/tty pcs cluster setup --name pcs_cluster nfsserv01 nfsserv02 --transport udpu pcs cluster start --al... =120s pcs -f tmp-cib.xml resource create zfs_pool01 ocf:heartbeat:ZFS pool=pool01 \ op monitor inte
- 18 Kubernetes GlusterFS @06_virtualization:05_container
- ^ hostname ^ IP ^ |g-master|172.16.0.103| |g-work01|172.16.0.93| |g-work02|172.16.0.153| |g-work03|17... 1.GlusterFS Install ===== GlusterFSはシンプルに下記で作成 [[01_linux:13_storage:03_glusterfs]] ===== 2.EndPoint... : - ip: 172.16.0.93 hostname: g-work01 - ip: 172.16.0.153 hostname: g-work... ------------------------------------- Brick g-work01:/gluster/volume 49152 0
- 06 WireGuard @01_linux:10_network
- ivkey 公開鍵:pubkey 事前共有キー:preshared <code> CL=client01 mkdir -p ~/WireGuard/${CL} && cd ~/WireGuard/${... ER_privkey=`cat ~/WireGuard/server/privkey` CLIENT01_pubkey=`cat ~/WireGuard/client01/pubkey` CLIENT01_preshared=`cat ~/WireGuard/client01/preshared` cat << __EOM__ > /etc/wireguard/wg0
- 30 ZFS Linux @01_linux:13_storage
- zfs ===== create pool ===== zpool create pool01 /dev/rbd0 ===== pool config ===== zfs set compress=lz4 pool01 zfs set sync=disabled pool01 zfs set dedup=on pool01 zpool set autotrim=on pool01 ===== export ===== pool のマウントを外す zpool
- 25 LVM内のLVMをマウント @01_linux:99_その他
- LogVol01 VolGroup00 -wi-ao---- 50.00g VmVol01 VolGroup00 -wi-a----- 100.00g </code> ^ LVM ^ 用途 ^ |LogVol00| HVのSwap| |LogVol01| HVのRootディスク| |VmVol01| VM用のディスク| VM用のディスクVmVol01を見ると、このディスクもLVMパーティションになっている状態。 <code> # fdisk -l
- 13 Kubernetes Nginxを立ててみる @06_virtualization:05_container
- Running 1 (17m ago) 55m 10.224.1.15 worker01 <none> <none> nginx-6c57499ddb-tfghq ... Running 1 (17m ago) 55m 10.224.1.14 worker01 <none> <none> nginx-6c57499ddb-zg88c ... Running 1 (17m ago) 55m 10.224.1.17 worker01 <none> <none> </code> ==== Podそれぞれ表示... e> ===== 3.workerノードで確認 ===== <code> root@worker01:~# curl 10.224.1.15 pod1 root@worker01:~# curl 10
- 01 Bash - 制御文 @bash
- ====== 01 Bash - 制御文 ====== ===== if文 ===== if文は、ある条件を指定して、それが真(0)が偽(1)かで処理を分岐する制御文です。\\ <color red>※... i </code> ==== if文 使用例 ==== testコマンドによる、if分岐 test01.sh <code> #!/bin/sh if test $1 -le 0 then echo... than 0." fi </code> 実行例 <code console> $ sh test01.sh 6 Number is Less than or equal 0. $ sh test01.sh 8 Number is grater than 0. </code> ===== 条件 =====
- 22 Ceph create-volume でエラー @01_linux:13_storage
- ng ssd/data, it is already prepared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical... volume "data" successfully removed [root@cephdev001 my-cluster]# lvcreate -n data -l 100%Free ssd Logical volume "data" created. [root@cephdev001 my-cluster]# ceph-volume lvm prepare --bluestore ... eph --setgroup ceph stderr: 2020-09-02 18:30:10.301 7f600913da80 -1 bluestore(/var/lib/ceph/osd/ceph-
- 01_サカつく初代 01年目 @50_dialy:sakatsuku
- ====== 01_サカつく初代 01年目 ====== はじめにサッカースタイルを選択 今まで欧米スタイルしか選んだことがなかったので、今回は南米スタイルを選択 今回は3-4-3/ライン/攻撃重視 の超攻撃的スタイルで進めてみようと思います。 {{:50_dialy:sakatsuku:saka01_0001.png?300|}} 監督は個人技練習中心の渡辺直樹監督 1年契約の監督が良いと思う。 {{:50_dialy:sakatsuku:saka01_0003.png?300|}} 選手は最低の11人でとにかく安い選手で揃える。 深川銀次・広瀬宗
- 38 cephadmでcephインストール後、openstackで利用 @01_linux:13_storage
- /etc/ceph # cephadm bootstrap --mon-ip 192.168.0.101 --initial-dashboard-user admin --initial-dashboar... de> ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph01 ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02 ... ceph/ceph.pub root@ceph03 ceph orch host add ceph01 192.168.0.101 ceph orch host add ceph02 192.168.0.102 ceph orch host add ceph03 192.168.0.103 ceph o
- 21 CentOS5でPacketix VPN Client @01_linux:01_net
- cCreate コマンド - 新規仮想 LAN カードの作成 仮想 LAN カードの名前: nic01 コマンドは正常に終了しました。 VPN Client>NicList NicList... ---------+----------------------- 仮想 LAN カード名|nic01 状態 |有効 (使用可能) MAC アドレス |00AC70A... UBLIC 接続するユーザー名: PUBLIC 使用する仮想 LAN カード名: nic01 コマンドは正常に終了しました。 VPN Client>AccountList Acc... blic.softether.com (直接 TCP/IP 接続) 仮想 LAN カード名|nic01 コマンドは正常に終了しました。 </code> ==== ユーザー認証の種類がパスワードの場合
- 32_CentOSでiSCSI環境構築 @01_linux:01_net
- iSCSIクライアント(iscsi-initiator)側 == IP: 192.168.10.101 ===== ①iSCSIサーバ(iscsi-target)側 ===== ==== 1.is... === 2.iscsiターゲットの設定 ==== 大容量ディスクにパーティションをついかは [[01_linux:99_その他:35_gpt対応大容量ディスクにパーティションを追加_parted]] ... --op new --mode target --tid 0 --targetname iqn.2014-03.storage-server:sdb1 </code> === 物理デバイス登録 ===... de target --tid 0 --initiator-address 192.168.10.101 # tgtadm --lld iscsi --op bind --mode target --t
- kill @02_freebsd:80_unixコマンド
- og/messages & バックグラウンドでtailコマンドを実行する。 [2] 7801 > ps 現在実行中のプロセスを表... 0:00.17 -csh(csh) 7709 p0 T 0:00.01 man csh 7710 p0 T 0:00.01 sh -c /usr/bin/zcat /usr/share/man/cat1/csh.1.gz |j 7711 p0 T 0:00.01 /usr/bin/zcat /usr/share/man/cat1/csh.1gz 7712