• 内容へ移動

fl8 Wiki

ユーザ用ツール

  • ログイン

サイト用ツール

  • 最近の変更
  • メディアマネージャー
  • サイトマップ
現在位置: Dokuwiki.fl8.jp » 01
トレース: • 16 Thunderbird でテキスト形式に変更 • GRUBで起動しない • 15 Ubuntu ZFS zfs_arc_max • 2024.07.10 PHP-FPMのumask変更 • AdaptecRaid監視 • 13 CentOS6メール設定 • WebDAV • 26 w10wheel.net • nslookup • Clibor

01

検索

以下に検索結果を表示します。

後方一致
  • 完全一致
  • 前方一致
  • 後方一致
  • 部分一致
@01_linux:13_storage
  • 全ての名前空間
全期間
  • 全期間
  • 1週間以内
  • 1カ月以内
  • 1年以内
ヒット数順に並べる
  • ヒット数順に並べる
  • 最終更新順に並べる

マッチした文書名:

  • 01 ALUA
  • 02 GlusterFS
  • 03 Ubuntu GlusterFS
  • 13 ZFS logbias
  • 14 ZFS ZIL
  • 15 LVMの自動アクティベート
  • 16 Ceph サイジング(RAM/CPU)
  • 17 mon HEALTH_WARN mon xxx is using a lot of disk space
  • 18 Ceph MON可用性
  • 19 Ceph OMAP META
  • 20 Ceph PG数
  • 21 Ceph マニュアルインストール
  • 22 Ceph create-volume でエラー
  • 23 ceph コマンド
  • 24 Ceph OSD 追加
  • 25 Ceph crash log
  • 26 Ceph recovery speed
  • 26 Ceph OSD reboot
  • 27 Ceph OSD 切り離し
  • 28 Ceph Mon 追加
  • 28 Ceph ISCSI
  • 29 Ceph Dashboard
  • 30 ZFS Linux
  • 31 ZFS IOPS limit
  • 32 Ceph 再同期
  • 33 wipefs
  • 34 ZFS trim
  • 35 pgs not deep-scrubbed in time
  • 36 LINSTOR Bcache
  • 37 LINSOTR + OpenStack
  • 38 cephadmでcephインストール後、openstackで利用

全文検索:

30 ZFS Linux
18 ヒット, 最終更新: 4年前
zfs ===== create pool ===== zpool create pool01 /dev/rbd0 ===== pool config ===== zfs set compress=lz4 pool01 zfs set sync=disabled pool01 zfs set dedup=on pool01 zpool set autotrim=on pool01 ===== export ===== pool のマウントを外す zpool
22 Ceph create-volume でエラー
14 ヒット, 最終更新: 5年前
ng ssd/data, it is already prepared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical... volume "data" successfully removed [root@cephdev001 my-cluster]# lvcreate -n data -l 100%Free ssd Logical volume "data" created. [root@cephdev001 my-cluster]# ceph-volume lvm prepare --bluestore ... eph --setgroup ceph stderr: 2020-09-02 18:30:10.301 7f600913da80 -1 bluestore(/var/lib/ceph/osd/ceph-
38 cephadmでcephインストール後、openstackで利用
12 ヒット, 最終更新: 3年前
/etc/ceph # cephadm bootstrap --mon-ip 192.168.0.101 --initial-dashboard-user admin --initial-dashboar... de> ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph01 ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02 ... ceph/ceph.pub root@ceph03 ceph orch host add ceph01 192.168.0.101 ceph orch host add ceph02 192.168.0.102 ceph orch host add ceph03 192.168.0.103 ceph o
17 mon HEALTH_WARN mon xxx is using a lot of disk space
9 ヒット, 最終更新: 4年前
ァイルが大量にできてしまってディスクを圧迫 /var/lib/ceph/mon/ceph-mon01/store.db/*.sst <code> # ceph health detail HEALTH_WARN mon mon01 is using a lot of disk space MON_DISK_BIG mon mon01 is using a lot of disk space mon.mon01 is 15 GiB >= mon_data_size_warn (15 GiB) # du -sh /var/li
31 ZFS IOPS limit
9 ヒット, 最終更新: 4年前
====== 31 ZFS IOPS limit ====== ZFSは、zpoolに対しては[[01_linux:21_centos7:07_cgroup|cgroup]]が効かない ZFSでIOP... スクに制限をかけても効かない <code> # zpool status pool: pool01 state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM pool01 ONLINE 0 0 0 rbd1 ONLI... OLで制限をかけると効く ===== <code> zfs create -V 20G pool01/zvol01 mkfs.xfs /dev/zvol/pool01/zvol01 mount /de
28 Ceph Mon 追加
6 ヒット, 最終更新: 4年前
===== 削除 ===== ceph-deploy mon destroy ceph-mon01 ===== config同期 ===== 追加後は、cpeh.confを同期してあげる。 ceph-deploy --overwrite-conf config push ceph001 ceph002 ceph003 ceph005 ceph006 ceph007 ===== ... X-XXX-XXXX-XXXXXXXXXXX mon_initial_members = ceph001, ceph004, ceph005, ceph-mon02 mon_host = 10.10.0.101,10.10.0.104,10.10.0.105, 10.10.10.12 auth_cluster
23 ceph コマンド
5 ヒット, 最終更新: 5年前
== ==== 1.RBDの一覧 ==== <code> # rbd ls pool02 vol01 vol_01 vol_02 vol_test vol_03 vol_04 </code> ==== 2.RBDの使用者確認 ==== これで192.168.10.12と192.168.10.11が利用している事がわかる。 <code> # rbd status vol01 -p pool02 Watchers: watcher=192.168.10.12... ==== 3.RBD map ==== マッピング <code> # rbd map vol01 -p pool02 </code> ・アンマップ <code> # rbd unmap vol0
36 LINSTOR Bcache
5 ヒット, 最終更新: 3年前
drbdadmでの設定は、複雑で難しい。。。 そこを簡単に管理するのがLINSTOR {{:01_linux:13_storage:linstor01.png?400|}} {{:01_linux:13_storage:linstor02.png?400|}} 今回は、LINSOTRでBcacheを利用する方法を記述 ===== 1.LINSTO... chePool linstor storage-pool create lvmthin oshv1001 LinstorCache ubuntu-vg/CachePool </code> =====
28 Ceph ISCSI
4 ヒット, 最終更新: 4年前
d /iscsi-target > /iscsi-target> create iqn.2003-01.com.redhat.iscsi-gw:iscsi-igw > /iscsi-target> cd iqn.2003-01.com.redhat.iscsi-gw:iscsi-igw/gateways > /iscsi-target...-igw/gateways> create ceph001 10.xxx.xx.xx > /iscsi-target...-igw/gateways> cr... dashboard iscsi-gateway-list {"gateways": {"ceph001": {"service_url": "http://admin:admin@10.xxx.xx.x
29 Ceph Dashboard
4 ヒット, 最終更新: 4年前
ceph mgr services { "dashboard": "http://ceph01:8080/", } ===== 3.ユーザ設定 ===== user:admin, pass... e static_configs: - targets: ['ceph001:9283'] - job_name: 'node' static_configs: - targets: ['ceph001:9100'] labels: instance: "ceph001" - targets: ['ceph002:9100'] la
02 GlusterFS
3 ヒット, 最終更新: 6年前
い ===== エラーメッセージ # mount -t glusterfs 192.168.101.33:/glusterfs /mnt Mount failed. Please check t... details. hostsを書いてあげれば解決 <code> #cat /etc/hosts 192.168.101.33 gluster01 </code> {{tag>GlusterFS}}
03 Ubuntu GlusterFS
3 ヒット, 最終更新: 3年前
<code> cat << EOF >> /etc/hosts 172.16.0.93 g-work01 172.16.0.153 g-work02 172.16.0.166 g-work03 EOF <... olume replica 2 arbiter 1 transport tcp \ g-work01:/gluster/volume \ g-work02:/gluster/volume \ ... force </code> ===== 6.mount ===== mount.glusterfs g-work01:k8s-volume /mnt/ {{tag>GlusterFS}}
14 ZFS ZIL
3 ヒット, 最終更新: 6年前
こうなるとnfsへのアクセスがえらい遅くなる <code> $ zpool status pool01 ... STATE READ WRITE CKSUM pool01 DEGRADED 0 0 0 ... をofflineにしてやれば、とりあえず収まる <code> $ setup volume pool01 offline-lun c0t500003976C887B39d0 </code> {{tag>N
20 Ceph PG数
3 ヒット, 最終更新: 3年前
iB 235 GiB 232 GiB 37 KiB 2.6 GiB 3.0 TiB 7.01 # ceph -s cluster: id: 82c91e96-51db... _OK services: mon: 3 daemons, quorum ceph001,ceph002,ceph003 (age 16h) mgr: ceph001(active, since 16h), standbys: ceph003, ceph004, ceph002
25 Ceph crash log
3 ヒット, 最終更新: 5年前
crashed osd.4 crashed on host ceph006 at 2021-01-20 19:17:21.948752Z </code> ===== 対応 ===== 対象ノー... ENTITY NEW 2021-01-20_19:17:21.948752Z_ffce1753-6f57-43da-8afb-1cae8789eeff osd.4 * # ceph crash archive 2021-01-20_19:17:21.948752Z_ffce1753-6f57-43da-8afb-1cae8
34 ZFS trim
3 ヒット, 最終更新: 4年前
32 Ceph 再同期
2 ヒット, 最終更新: 4年前
37 LINSOTR + OpenStack
2 ヒット, 最終更新: 3年前
01 ALUA
1 ヒット, 最終更新: 6年前
19 Ceph OMAP META
1 ヒット, 最終更新: 4年前
21 Ceph マニュアルインストール
1 ヒット, 最終更新: 3年前

ページ用ツール

  • 文書の表示
  • 以前のリビジョン
  • バックリンク
  • 文書の先頭へ
特に明示されていない限り、本Wikiの内容は次のライセンスに従います: CC Attribution-Noncommercial-Share Alike 4.0 International
CC Attribution-Noncommercial-Share Alike 4.0 International Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki