일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- kolla-ansible
- golang
- Kubeflow
- pacman
- HTML
- nfs-provisioner
- awx
- Docker
- i3
- Linux
- port open
- Kubernetes
- KVM
- Octavia
- cloud-init
- yum
- OpenStack
- Arch
- ceph
- grafana-loki
- terraform
- Ansible
- archlinux
- kolla
- libvirt
- ubuntu
- cephadm
- ceph-ansible
- repository
- k8s
- Today
- Total
목록ceph (6)
YJWANG
Ceph Client는 Data를 Object단위로 분할하여 Ceph (RADOS)에 저장합니다. 이때 Data는 obj로 변환된 후 해당 Pool에 할당돼있는 pg에 할당되고 그 pg는 replicated rule에 의해 OSD에 분산 저장됩니다. 오늘 포스팅은 해당 과정을 자세히 알아보는 시간을 갖고자합니다. 구성 현황 현재 TEST를 위해 CephFS를 구성해두었습니다. root@virt-go-u20-20:~# ceph osd pool ls device_health_metrics testp1 cephfs.testfs.meta cephfs.testfs.data root@virt-go-u20-20:~# ceph fs ls name: testfs, metadata pool: cephfs.testfs.me..
Kubernetes 위에 Rook을 이용해서 Ceph를 배포하는 포스팅을 다루고자 합니다. Rook은 v1.5를 사용했습니다. Prerequisite k8s Cluster k8s PSP를 쓰거나 Docker registry를 별도로 사용하는 경우 아래 문서를 참고 부탁드립니다. https://rook.io/docs/rook/v1.5/k8s-pre-reqs.html worker node의 rbd module을 load해준다. root@yjwang0-k8s-03:~# modprobe rbd root@yjwang0-k8s-04:~# modprobe rbd root@yjwang0-k8s-05:~# modprobe rbd Refer to https://rook.io/docs/rook/v1.5/ceph-quicks..
refer to : https://docs.openstack.org/kolla-ansible/latest/user/quickstart.html https://docs.openstack.org/kolla-ansible/victoria/reference/storage/external-ceph-guide.html Prerequisite Ceph Node 사전 작업 Ceph Cluster https://yjwang.tistory.com/entry/Ceph-Ceph-Ansible-Ubuntu-2004 위 포스팅을 참고하여 통해 우선 Ceph Cluster를 정상적으로 배포해준다. refer to : https://docs.ceph.com/en/latest/rbd/rbd-openstack/ 이후 glance / c..
Prerequisite Ceph Cluster Kubernetes Cluster Ceph와 Kubernetes가 Network으로 서로 통신이 가능해야합니다. Ceph RBD Provisioner 사용 refer to : https://docs.ceph.com/en/latest/rbd/rbd-kubernetes/ ceph node에서 실행 ceph rbd pool 생성 root@yjwang0-ceph-01:~# ceph osd pool create kubernetes pool 'kubernetes' created root@yjwang0-ceph-01:~# rbd pool init kubernetes ceph auth 생성 root@yjwang0-ceph-01:~# ceph auth get-..
Prerequisite refer to : https://docs.ceph.com/en/latest/rados/operations/ Ceph Cluster 여분의 Device (osd로 추가할) Ceph-Ansible로 구축한 Ceph는 Ceph orch API를 지원하지 않기때문에 해당 명령어는 최대한 사용하지 않도록 하겠습니다. Add OSD refer to : https://docs.ceph.com/projects/ceph-ansible/en/latest/day-2/osds.html 현재 서버에는 파티셔닝 되지 않은 vdb disk가 여분으로 준비돼있습니다. vdb 252:16 0 9.3G 0 disk 그리고 현재 Ceph에는 vda만 OSD로 할당돼있습니다. root@yjwang0-ceph-01:..
refer to : https://docs.ceph.com/projects/ceph-ansible/en/latest/ Deploy Cluster 필요 패키지 설치 & SSH key copy # apt update;apt -y install python3-pip # git clone https://github.com/ceph/ceph-ansible.git;cd ceph-ansible/ # pip3 install -r requirements.txt # ssh-keygen -N "" -f /root/.ssh/id_rsa # ssh-copy-id 10.99.70.30 # ssh-copy-id 10.99.70.31 # ssh-copy-id 10.99.70.32 inventory 설정 root@yjwang0-cep..