全文検索:
- 06 WireGuard @01_linux:10_network
- psk > preshared </code> ===== 3.設定ファイル作成 ===== <color #ed1c24>※このPeerで指定するAllowedIPs は、32bitで記述</color> <code> SERVER_privkey=`cat ~/WireGuard/server/privkey... = 10.0.1.3/32 #${CL}に割り当てるIP __EOM__ </code> <color #ed1c24>※PersistentKeepAlive NAT を保持するための KeepAlive 送信間隔 [秒]</color> ===== 7.Windowsクライアントからの接続 ===== Windowsからは、[[#
- 08 qcow2 バックアップ 外部へ取得する場合(online external) @01_linux:08_仮想化:kvm
- ow2.bk </code> ===== バックアップ後は、元ファイルへマージ ===== <color #ed1c24>※注意 --base --topはフルパスじゃないとエラーになります。</color> <code> root@hvdev1001:~# virsh blockcommit testvm vd
- 21 Ceph マニュアルインストール @01_linux:13_storage
- ビルド ===== ./do_cmake.sh cd build make j4 <color #ed1c24>※CPU(Xeon(R) Silver 4215 @ 2.50GHz)の場合1時間程度(マルチスレッドじゃない場合は、この4倍かかる)</color> make j4 real 67m25.470s user 196m36.
- 37 LINSOTR + OpenStack @01_linux:13_storage
- r-client </code> ===== zpool作成 ===== zpool作成時 <color #ed1c24>※compress=offにすると、LINSTORでzfsthinを設定してもシンプロにならないので注意</color> ===== kolla-ansible ===== <code|etc/globals.
- 36 LINSTOR Bcache @01_linux:13_storage
- b /dev/sdc /dev/sdd </code> ==== プールの設定修正 ==== <color #ed1c24>※compress=offにすると、LINSTORでzfsthinを設定してもシンプロにならないので注意</color> <code> zfs set compress=lz4 DataPool ##zfs set
- 15 Ubuntu ZFS zfs_arc_max @01_linux:30_ubuntu
- 0 13G 15G </code> ===== メモリ使用量を制限する ===== <color #ed1c24>※zfs_arc_maxは最低で、実メモリの32/1くらいはないと、設定が反映されず。デフォルトの実メモリの半分が適応されてしまいまいます。</color> 512Gの場合、512Gの32/1で16G程度が最低でした。 16Gにしてみる <code>
- 05 KVM Multi-Queue @01_linux:10_network
- ng-multi-queue_virtio-net]] ===== xml修正 ===== <color #ed1c24><driver name='vhost' queues='N'/></color> この部分追加 <code> <interface type='network'> <sourc
- 20 Ceph PG数 @01_linux:13_storage
- placedが下記の値(defautl: 5%)を下回ると、次のPGをremapし始める。 \\ <color #ed1c24>※延々終わらないように見えるが、全部のPGをremapするとちゃんと終わる。</color> \\ target_max_misplaced_ratio <code> # ceph con
- 14 Let's Encrypt無料のSSL証明書 @01_linux:02_www
- ====== 14 Let's Encrypt無料のSSL証明書 ====== <color #ed1c24>※certbot-autoが2021年1月以降全てのディストリビューションで非推奨になりました。... 更新について問題ないですが、今後のアップデートが行われない。 \\ 下記の利用をオススメします。</color> Docker版: [[06_virtualization:05_container:10_do... Allow Allow from all </code> ==== Cronの場合 ==== <color #ed1c24>※post-hook先の実行もcronでpathが通ってないとエラーになって更新できません。</color> <code> 0 0 * * * scl enable python27 'bash /us
- 34 ZFS trim @01_linux:13_storage
- が返る前に trim されることが終わるまで、待ちます。| ===== Man ===== <color #ed1c24>※zpool tirmは手動の方が良いかもと思います。</color> <code> # man zpool Be aware that automatic trimming of rec
- 01 JuJu Maas Openstack @01_linux:08_仮想化:juju
- code> 後は待ってればOK <code> $ watch -c juju status --color </code> === valt block === 待っていると下記のようにvaultのところが<color #ed1c24>blocked</color>で止まってしまう。 これはvaultの初期化が必要ので、シェルを実行して初期化する。 <code> vault/0* bl
- 80 レスキューモードでSSHD起動 @01_linux:99_その他
- >> /etc/ssh/sshd_config ===== 3.SSHを一度起動 ===== <color #ed1c24>※注意:この状態だと、どこからでもパスワードなしでログインできてしまう。</color> /sbin/sshd ===== 4. SSHログインして設定変更 ===== ssh r... o" >> /etc/ssh/sshd_config ===== 5.SSD再起動 ===== <color #22b14c>※この再起動後、作成した鍵のみでSSDログインできるようになります。</color> # SSHプロセスを再起動 ps auxw | grep sshd kill -s TERM [
- unixbench @01_linux:09_ベンチマーク
- ==== make ====== 実行 ====== ./Run -i 3 -c 2 <color #ed1c24>※「-i n」で試行回数を指定、でフォルダと「-i 10」で実行されるので時間がかかる \\ ※「-c n」で計測時のCPUの数を指定。 </color> [[http://code.google.com/p/byte-unixbench/downl
- 32 Ceph 再同期 @01_linux:13_storage
- ====== 32 Ceph 再同期 ====== ===== 1.LVM設定 ===== <color #ff7f27>※RAMディスクを利用しているため、サーバ強制停止後は基本的にLVMが壊れています。</color> 下記でramdisk作成、opencasで/dev/ceph/lvをキャッシュするように設定し... /dev/sdb </code> ==== Ⅰ. OSDをそのまま起動のパターン ==== <color #22b14c>もしも、rocksdb/waldb/osdなど壊れてなければ、このままOSDをactivateすれば再同期されます。</color> ceph-volume lvm activate {ID} {FSID} ceph-
- 30 ZFS Linux @01_linux:13_storage
- ントを外す zpool export pool01 ===== import ===== <color #22b14c>※pool名のrenameは無いが、import時に[new poolname]を指定してpool名を変更できる</color> zpool import pool01 [new poolname] ※メモ: Cep... ===== ZVOL ===== 下記の例では、10Gのpoo/01/zvol01を作成する。 <color #b5e61d>※「-s」でスパースzvolを作成。オーバーコミットできる。</color> zfs create -s -o volblocksize=128k -V 10G pool01/zvol01