全文検索:
- 08 qcow2 バックアップ 外部へ取得する場合(online external) @01_linux:08_仮想化:kvm
- ckup_internal]] ===== ディスク確認 ===== <code> root@hvdev1001:~# virsh domblklist testvm Target Source -... - </code> ===== スナップショット作成 ===== <code> root@hvdev1001:~# virsh snapshot-create-as testvm --name tes... ed </code> ==== スナップショット作成後 ==== <code> root@hvdev1001:~# virsh domblklist testvm Target Source -... ackingStore/> </backingStore> <target dev='vda' bus='virtio'/> <alias name='virtio-di
- 92 Gitコマンド @01_linux:99_その他
- remotes/origin/master remotes/origin/matsui-dev $ git pull origin matsui-dev ===== git log ===== ==== [svn log -v]のように ==== git log --stat ... nch ==== リモートにブランチ作成 ==== $ git branch matsui-dev $ git push origin matsui-dev ==== リモートブランチの削除 ==== <code> $ git branch -a * master remotes/origin
- 38 cephadmでcephインストール後、openstackで利用 @01_linux:13_storage
- - ceph03 spec: data_devices: paths: - /dev/sdb - /dev/sdc </code> ==== デプロイ ==== # ceph orch apply -i ceph_cluster_conf.yaml 下記で見ているとだん
- 21 Ceph マニュアルインストール @01_linux:13_storage
- 1 MDS=1 ../src/vstart.sh -d -n -x [[https://docs.ceph.com/docs/mimic/dev/quick_guide/]] {{tag>Ceph}}
- 32 LVM から qcow2に変換 @01_linux:08_仮想化:kvm
- === - LVM to raw ===== <code> # qemu-img convert /dev/VolGroup00/snap-Volhoge -O raw /root/Volhoge.img
- 05 ゲストCentOS5をVirtio化 @01_linux:08_仮想化:kvm
- === # virsh edit [VM] ===== Disk ===== target dev をvda へ、busをvirtioに変更 <disk type='block' device=... type='raw' cache='none' io='native'/> <source dev='/dev/mapper/VolG00-Volmatsui'/> <target dev='hda' bus='ide'/> </disk> ↓ ↓ 変更 <disk type='block' d
- 36 LINSTOR Bcache @01_linux:13_storage
- pool用意 ===== <code> zpool create DataPool raidz /dev/sdb /dev/sdc /dev/sdd </code> ==== プールの設定修正 ==== <color #ed1c24>※compress=offにすると、LINSTORでzfsthinを設定してもシンプロにな... ataPool </code> ===== 3.Bcache領域作成 ===== 今回は、/dev/sdaの余った領域をBcacheに使ってみる。 本来はnvmeのSSDを利用したりする。Optan
- 17 Nginx FastCGI Cache @01_linux:02_www
- ッシュが無いので、MISSになる ==== <code> # curl -D - -s -o /dev/null http://localhost/info.php HTTP/1.1 200 OK Se... 2回目はキャッシュにHITする。 ==== <code> # curl -D - -s -o /dev/null http://localhost/info.php HTTP/1.1 200 OK Se
- 03 Ubuntu GlusterFS @01_linux:13_storage
- ory ===== mkdir -p /gluster/volume mkfs.xfs /dev/sdb mount /dev/sdb /gluster/volume/ ===== 5.volume create ===== <code> gluster volume create k8s
- 52 MySQLQ sysbench 1.0 @01_linux:11_データベース:01_mysql
- 4797901.95 Threads fairness: events (avg/stddev): 60805.9375/188.35 execution time (avg/stddev): 299.8689/0.00 </code> ===== CPU/Memory/File... 9996.71 Threads fairness: events (avg/stddev): 9203.0000/0.00 execution time (avg/stddev): 9.9967/0.00 </code> ==== Memory ==== <code>
- 50 MySQLベンチマーク(sysbench) @01_linux:11_データベース:01_mysql
- 6.24ms Threads fairness: events (avg/stddev): 11273.0000/0.00 execution time (avg/stddev): 59.8877/0.00 </code> ==== sysbench Option =
- 10 Ubuntu Tuning @01_linux:30_ubuntu
- ====== 10 Ubuntu Tuning ====== <code|/etc/udev/rules.d/50-tso.rules> ACTION=="add", SUBSYSTEM=="net", ... /sbin/ethtool -K %k tso off" </code> <code|/etc/udev/rules.d/60-ioschedulers.rules> ACTION=="add|chang
- 34 ZFS trim @01_linux:13_storage
- なしで、TRIM は、できるだけ早く実行されます。 \\ 1 秒ごとのバイト単位で表される速度は、vdev ごとに適用され、リーフ vdev ごとに異なる設定が可能です。| | -c|--cancel|指定されたデバイス、またはなにも指定されていないなら、すべての望ましいデバイスの trim をキャンセルします
- 04 sar(sysstat) steal @01_linux:12_ツール
- ます。 ===== Steal Option ===== ^コマンド^内容^ |sar -n DEV|ネットワークデイバイスごとの通信量| |sar -q |loadaverage| |sar -u|
- 05 Linuxチューニング @01_linux:09_ベンチマーク
- uf net.ipv4.tcp_moderate_rcvbuf = 1 # net.core.netdev_max_backlog net.core.netdev_max_backlog = 5000 #net.core.somaxconn net.core.somaxconn = 4096 vm.swappi... e length of the processor input queue net.core.netdev_max_backlog = 250000 # recommended default conges