全文検索:
- 28 Ceph ISCSI
- s/default/x86_64/]] <code> # ls -al -rw-r--r-- 1 root root 41308 9月 25 10:59 libtcmu-1.5.2-1.el7.x86_64.rpm -rw-r--r-- 1 root root 2244 9月 25 10:59 libtcmu-devel-1.5.2-1.el7.x86_64.rpm -rw-r--r-- 1 root root 122032 9月 25 10:5
- 32 Ceph 再同期
- dev/ceph/lv </code> 上記の設定で下記のLVMが見えているはず <code> [root@ceph001 ~]# lvs LV VG Attr LSize... root centos -wi-ao---- 50.00g ... LVMが見えると、ceph-volume lvm listでリストが見える。 <code> [root@ceph005 ~]# ceph-volume lvm list ====== osd.3 ==... code> === 壊れた対象ののOSDを削除 === ID 3を想定して記載 <code> [root@ceph005 ~]# ceph osd status +----+---------+-----
- 22 Ceph create-volume でエラー
- Error: skipping ssd/data, it is already prepared [root@cephdev001 my-cluster]# lvremove -f /dev/ssd/data Logical volume "data" successfully removed [root@cephdev001 my-cluster]# lvcreate -n data -l 100%Free ssd Logical volume "data" created. [root@cephdev001 my-cluster]# ceph-volume lvm prepare -
- 30 ZFS Linux
- 成されている # ll /dev/zvol/onapp2/cc lrwxrwxrwx 1 root root 9 Jul 24 15:40 /dev/zvol/pool01/zvol01 -> ../../zd0 ==== ZVOL resize ==== zfs set volsize=100... e not loaded. Try running '/sbin/modprobe zfs' as root to load them. </code> ==== 対応 ==== modprobe してやれ
- 38 cephadmでcephインストール後、openstackで利用
- ==== <code> ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph01 ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph02 ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph03 ceph orch host add ceph01 192.168.0.101 ceph o