全文検索:
- 06 WireGuard @01_linux:10_network
- 20 qdisc noqueue state UNKNOWN group default qlen 1000 inet 10.0.0.1/24 scope global wg0 val
- 08 Ubuntu Nat iptables直 @01_linux:30_ubuntu
- orward=1 ===== SNAT ===== 下記の状態で、eth1側から192.168.100.0/24からのアクセスだけIPマスカレードする。 |enp1s0|グローバル側|10.10.10.76| |enp6s0|ローカル側|192.168.100.76| iptables -A INPUT -m state --state RELATED... D DROP iptables -A FORWARD -i enp6s0 -s 192.168.100.0/24 -j ACCEPT ===== iptables 永続化 ===== 下記で再起動... BLISHED -j ACCEPT -A FORWARD -i enp6s0 -s 192.168.100.0/24 -j ACCEPT COMMIT # NAT *nat -F :POSTROUTING
- 91 PV計算(ページビュー) @01_linux:02_www
- ればいいことになる。実際には、安全係数を2倍かけて 80 とか。リクエストの処理に必要なメモリ量を 100MB とすると、 動的コンテンツで20〜30Mbytes 静的コンテンツで2~3Mbytes 100 MB/conn * 80 conn = 8GB 程度のメモリがあればいいってことだから、ちゃんとメモ
- 06 Ubuntu Network設定 @01_linux:30_ubuntu
- transmit-hash-policy: layer3+4 vlans: vlan.100: id: 100 link: bond1 bridges: br0: interfaces: - bond0 addresses: ... earch: [] br1: interfaces: - vlan.100 addresses: - 100.100.0.10/16 gateway4: 100.100.255.254 nameservers:
- 08 qcow2 バックアップ 外部へ取得する場合(online external) @01_linux:08_仮想化:kvm
- p_internal]] ===== ディスク確認 ===== <code> root@hvdev1001:~# virsh domblklist testvm Target Source ----... /code> ===== スナップショット作成 ===== <code> root@hvdev1001:~# virsh snapshot-create-as testvm --name testsn... </code> ==== スナップショット作成後 ==== <code> root@hvdev1001:~# virsh domblklist testvm Target Source ----... ge: testvm.qcow2 file format: qcow2 virtual size: 100 GiB (107374182400 bytes) disk size: 12.9 GiB clus
- 11 KVM名前変更 @01_linux:08_仮想化:kvm
- m-002にした場合。 変更前と変更後の2つのファイルが見える。 <code> root@hvdev1002:~# ll /etc/libvirt/qemu/ -rw------- 1 root root
- 07 レイテンシーとIOPSの関係 @01_linux:09_ベンチマーク
- 上回る場合、特にこの状態が長期間続く場合には、問題が発生していることを 表しています。レイテンシが 100 ms を超えると、たいていの企業アプリケーションにおいて問題が発生します。作業負荷を減らすか、負荷... げてスループットの向上を図っている場合、応答時間は必ずしも短くなるとは限りません。 大げさに言えば、100万IOPSをこなすストレージだが1IOの応答時間に1秒かかるといったストレージではIOPSのみ見ると
- 36 LINSTOR Bcache @01_linux:13_storage
- nvmeのSSDを利用したりする。Optane SSDなど <code> lvcreate -l 100%FREE --thinpool ubuntu-vg/CachePool linstor storage-pool create lvmthin oshv1001 LinstorCache ubuntu-vg/CachePool </code> =====... sk └─bcache0 252:0 0 2G 0 disk └─drbd1000 147:1000 0 2G 0 disk zd16 230:16 0 512M 0 disk └─bcache0 252:0 0 2G 0 di
- 13 ZFS logbias @01_linux:13_storage
- write: IOPS=716, BW=2868KiB/s (2937kB/s)(28.3MiB/10089msec) write: IOPS=781, BW=97.6MiB/s (102MB/s)(984MiB/10077msec) write: IOPS=600, BW=75.0MiB/s (78.7MB/s)(756MiB/10072msec) zfs set logbias=latency DataPool log... write: IOPS=1666, BW=208MiB/s (218MB/s)(2091MiB/10036msec) write: IOPS=1737, BW=217MiB/s (228MB/s)(
- 15 Ubuntu ZFS zfs_arc_max @01_linux:30_ubuntu
- Most Recently Used (MRU) cache size: 100.0 % 12.8 GiB Metadata cache size (hard
- tuned @01_linux:09_ベンチマーク
- nor <code> ## default # cpufreq-info -p 800000 2201000 ondemand ## virtual-host # cpufreq-info -p 800000 2201000 performance </code> ===== tuned 変更後のパフォーマンス差 ==... "Seq-Write" bw:433MB iops: 423 latency:ms"4":100 "Rand-Read-16K" bw: 56MB iops: 3534 latency... and-Write-4K-QD32" bw:144MB iops:36048 latency:us"1000":41.949081 ### virtual-host "Seq-Re
- 06 AB テスト @01_linux:09_ベンチマーク
- firm/items/ac5a2f53cfa933a37192]] <code> $ ab -n 100 -c 100 http://www.example.co.jp/ </code> |-n 数値|リクエストの総数を数値で指定| |-c 数値|同時に発行するリクエストの数を数値で指定| ===== 実行例 ===== <code> $ ab -n 100 -c 20 http://fl8.jp/ This is ApacheBench, Version... or tests: 1.027 seconds Complete requests: 100 Failed requests: 68 (Connect: 0, Receiv
- 01 PostgreSQL streaming replica @01_linux:11_データベース:02_postgresql
- スケールアウトを実現するストリーミングレプリケーションを作成 ^hostname^IP^ |pg1001|172.16.0.51| |pg1002|172.16.0.52| |pg1003|172.16.0.53| ===== インストール ===== yum -y install epel-release centos-release-s... ==== 確認 ===== ==== Primary ==== <code> [root@pg1001 ~]# systemctl status postgresql-13.service ● po
- 05 KVM Multi-Queue @01_linux:10_network
- KVMのデフォルトだと、並列パケット処理できなくてUDPで大量のアクセスが来た場合、 1つのCPUが100%に張り付いて処理できなくなる。 [[https://access.redhat.com/docu... クライアント側 ==== # iperf3 -c 10.10.102.10 -P 4 -t 100 -b 1G -u === top/htopで確認 === こんな感じでsoft割り込み(si... ed, 0 zombie %Cpu0 : 0.0 us, 0.0 sy, 0.0 ni,100.0 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st %Cpu1 :... /proc/interrupts | grep virtio0-input 27: 14371000 19775189 0 0 PCI-MSI-edge
- 16 unboundでキャッシュサーバ @01_linux:01_net
- matic: no outgoing-range: 32768 outgoing-num-tcp: 100 incoming-num-tcp: 100 so-rcvbuf: 16777216 so-sndbuf: 16777216 msg-cache-size: 750m msg-cache-slabs: 16... yes use-caps-for-id: no unwanted-reply-threshold: 10000000 prefetch: yes prefetch-key: yes rrset-roundr... shed = 43200 同時リクエスト数 ※デフォルト10 outgoing-num-tcp: 100 incoming-num-tcp: 100 DNS応答が小さくなるため、TCPフォールバックが