全文検索:
- 44 CentOS7 chronyd NTP @01_linux:01_net
- hronyd ===== 確認 ===== <code> # chronyc sources 210 Number of sources = 4 MS Name/IP address ... ============= ^- ntp03.lagoon.nc 3 10 377 434 +27ms[ +27ms] +/- 140ms ^- y.ns.gin.ntt.net 2 10 377 870 -2303us[-2303us] +/- 106ms ^- time.cloudflare.com 3 10 377 199 -286us[
- 06 WireGuard @01_linux:10_network
- _ > /etc/wireguard/wg0.conf [Interface] Address = 10.0.1.1/24 #wg0に付けるIP ListenPort = 51820 PrivateKe... #~/WireGuard/client01/preshared の値 AllowedIPs = 10.0.1.2/32 #client01に割り当てるIP [Peer] # client02 P... #~/WireGuard/client02/preshared の値 AllowedIPs = 10.0.1.3/32 #client02に割り当てるIP __EOM__ </code> ==... 20 qdisc noqueue state UNKNOWN group default qlen 1000 inet 10.0.0.1/24 scope global wg0 va
- 07 Wireguard Client設定 @01_linux:10_network
- https://www.wireguard.com/install/]] {{:01_linux:10_network:pasted:20240316-043457.png}} ===== 2.イン... eguard-installer.exeをダブルクリックでインストール {{:01_linux:10_network:pasted:20240316-043930.png}} {{:01_linux:10_network:pasted:20240316-043849.png|}} ===== 3.タスクバーからWireGuardをクリック ===== {{:01_linux:10_network:pasted:20240605-050820.png}} ===== 4.ファ
- 18 SSH 高速化(arcfour256) rsync @01_linux:01_net
- ===== scp ===== # scp -c arcfour256 -r 192.168.10.11:/work/backups/ /work/backups/ rsyncも下記のようにや... === # rsync -av -e "ssh -c arcfour256" 192.168.10.11:/work/backups/ /work/backups/ [[http://blog.... h-arcfour256.html]] [[http://d.hatena.ne.jp/rx7/20101025/p1]] ==== 鍵利用の場合 ==== # rsync -av -e "ssh -c arcfour256 -i key" 192.168.10.11:/work/backups/
- 08 Ubuntu Nat iptables直 @01_linux:30_ubuntu
- orward=1 ===== SNAT ===== 下記の状態で、eth1側から192.168.100.0/24からのアクセスだけIPマスカレードする。 |enp1s0|グローバル側|10.10.10.76| |enp6s0|ローカル側|192.168.100.76| iptables -A INPUT -m state --state RELATED,ESTABLISHED -j ACC
- 91 PV計算(ページビュー) @01_linux:02_www
- そうすると、クアッドコアのアプリケーションサーバで処理できるリクエストは、 4 core * 10 reqs/sec * 86,400 sec/day * 30 day/mon / 2 = 51,8... 処理時間の10倍と仮定したわけだから、アプリケーションサーバの最大同時接続数は 4 core * 10 = 40 程度あればいいことになる。実際には、安全係数を2倍かけて 80 とか。リクエストの処理に必要なメモリ量を 100MB とすると、 動的コンテンツで20〜30Mbytes 静的コンテンツで2~3Mbytes 100 MB/conn * 80 conn = 8GB 程度のメモリがあればいいってことだから、ちゃんと
- 18 Let's Encrypt Certbot @01_linux:02_www
- ==== Docker版は-> [[06_virtualization:05_container:10_docker_let_s_encrypt]] ===== 1.snapdインストール =====
- 06 Ubuntu Network設定 @01_linux:30_ubuntu
- transmit-hash-policy: layer3+4 vlans: vlan.100: id: 100 link: bond1 bridges: br0: interfaces: - bond0 addresses: - 10.10.0.10/16 nameservers: addresses: [] search: [] br1: interfaces:
- 08 qcow2 バックアップ 外部へ取得する場合(online external) @01_linux:08_仮想化:kvm
- ternal) ====== 内部スナップショットは、[[01_linux:08_仮想化:kvm:10_qcow2_backup_internal]] ===== ディスク確認 ===== <code... ge: testvm.qcow2 file format: qcow2 virtual size: 100 GiB (107374182400 bytes) disk size: 12.9 GiB cluster_size: 65536 Format specific information: co... testvm.qcow2.bk file format: qcow2 virtual size: 100 GiB (107374182400 bytes) disk size: 6.88 GiB clu
- 11 KVM名前変更 @01_linux:08_仮想化:kvm
- :02 vm-001.xml -rw------- 1 root root 6906 Apr 27 10:14 vm-002.xml </code> ===== 4.新しいxmlを定義 =====
- 10 qcow2バクアップ 内部スナップショット(internal) @01_linux:08_仮想化:kvm
- ====== 10 qcow2バクアップ 内部スナップショット(internal) ====== 外部スナップショットは、[[01_linux:08_仮想化:kvm:08_qcow2_online_ex
- 38 cephadmでcephインストール後、openstackで利用 @01_linux:13_storage
- tall ==== initial bootstrap ceph ==== 192.168.0.101は、ストレージネットワーク <code> # mkdir -p /etc/ceph # cephadm bootstrap --mon-ip 192.168.0.101 --initial-dashboard-user admin --initial-dashboa... root@ceph03 ceph orch host add ceph01 192.168.0.101 ceph orch host add ceph02 192.168.0.102 ceph orch host add ceph03 192.168.0.103 ceph orch host labe
- 07 レイテンシーとIOPSの関係 @01_linux:09_ベンチマーク
- 上回る場合、特にこの状態が長期間続く場合には、問題が発生していることを 表しています。レイテンシが 100 ms を超えると、たいていの企業アプリケーションにおいて問題が発生します。作業負荷を減らすか、負... げてスループットの向上を図っている場合、応答時間は必ずしも短くなるとは限りません。 大げさに言えば、100万IOPSをこなすストレージだが1IOの応答時間に1秒かかるといったストレージではIOPSのみ見る
- 37 LINSOTR + OpenStack @01_linux:13_storage
- ify_tls_backend: "no" docker_registry: 192.168.30.101:4000 docker_registry_insecure: "yes" kolla_insta... der_backup_driver: "nfs" cinder_backup_share: "192.168.30.101:/nfs" </code> {{tag>LINSOTR OpenStack}}
- 36 LINSTOR Bcache @01_linux:13_storage
- nvmeのSSDを利用したりする。Optane SSDなど <code> lvcreate -l 100%FREE --thinpool ubuntu-vg/CachePool linstor stor... eG linstor resource-group spawn BcacheG Volume001 10G </code> ===== 8.確認 ===== <code> ## lsblk zd0 ... he0 252:0 0 2G 0 disk └─drbd1000 147:1000 0 2G 0 disk zd16 230:16 0 512M... ache0 252:0 0 2G 0 disk └─drbd1000 147:1000 0 2G 0 disk </code> {{tag>LINSTOR drbd}}