일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
- libvirt
- Arch
- kolla-ansible
- golang
- repository
- port open
- archlinux
- grafana-loki
- kolla
- ubuntu
- Docker
- Octavia
- k8s
- awx
- OpenStack
- nfs-provisioner
- KVM
- Kubernetes
- Kubeflow
- HTML
- ceph
- terraform
- yum
- Linux
- cephadm
- ceph-ansible
- pacman
- Ansible
- cloud-init
- i3
- Today
- Total
목록60.Cloud/61.Ceph (5)
YJWANG
이전 포스팅 보기 : https://yjwang.tistory.com/119 이번엔 지난 포스팅과 다르게 podman 기반으로 Ceph cluster를 구축하겠습니다. 또한 orchastration module을 yaml을 이용해서 구성해보겠습니다. podman 및 사전에 필요한 패키지와 환경을 구성하기 위해 ubuntu-cephadm-ansible project를 다운받습니다. # git clone https://github.com/YoungjuWang/ubuntu-cephadm-ansible inventory를 수정합니다. # cd ubuntu-cephadm-ansible/ # cat ceph.inventory virt-go-u20-50 ansible_connection=local virt-go-u2..
Ceph Client는 Data를 Object단위로 분할하여 Ceph (RADOS)에 저장합니다. 이때 Data는 obj로 변환된 후 해당 Pool에 할당돼있는 pg에 할당되고 그 pg는 replicated rule에 의해 OSD에 분산 저장됩니다. 오늘 포스팅은 해당 과정을 자세히 알아보는 시간을 갖고자합니다. 구성 현황 현재 TEST를 위해 CephFS를 구성해두었습니다. root@virt-go-u20-20:~# ceph osd pool ls device_health_metrics testp1 cephfs.testfs.meta cephfs.testfs.data root@virt-go-u20-20:~# ceph fs ls name: testfs, metadata pool: cephfs.testfs.me..
Prerequisite refer to : https://docs.ceph.com/en/latest/rados/operations/ Ceph Cluster 여분의 Device (osd로 추가할) Ceph-Ansible로 구축한 Ceph는 Ceph orch API를 지원하지 않기때문에 해당 명령어는 최대한 사용하지 않도록 하겠습니다. Add OSD refer to : https://docs.ceph.com/projects/ceph-ansible/en/latest/day-2/osds.html 현재 서버에는 파티셔닝 되지 않은 vdb disk가 여분으로 준비돼있습니다. vdb 252:16 0 9.3G 0 disk 그리고 현재 Ceph에는 vda만 OSD로 할당돼있습니다. root@yjwang0-ceph-01:..
refer to : https://docs.ceph.com/projects/ceph-ansible/en/latest/ Deploy Cluster 필요 패키지 설치 & SSH key copy # apt update;apt -y install python3-pip # git clone https://github.com/ceph/ceph-ansible.git;cd ceph-ansible/ # pip3 install -r requirements.txt # ssh-keygen -N "" -f /root/.ssh/id_rsa # ssh-copy-id 10.99.70.30 # ssh-copy-id 10.99.70.31 # ssh-copy-id 10.99.70.32 inventory 설정 root@yjwang0-cep..
참고자료 https://docs.ceph.com/en/latest/cephadm/install/#requirements Ceph 배포 검토 사항 이전에는 지속적으로 ceph-ansible을 통해서 배포했었는데 아래 공식 홈페이지 내용과 같이 cephadm을 추천하고 있고 새로운 기능을 지원한다고 쓰여있네요. 단, Octopus 이상의 버전과 꼭 Container 환경에서 실행해야 하는 제한 사항이 있으니 참고하시기바랍니다. Pacific 버전으로로 설치할 예정입니다. 서버는 아래와 같이 3대를 사용할 예정입니다. # virt-go list --------------------------------------------- RESOURCE STATE --------------------------------..