일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- ubuntu
- k8s
- pacman
- Linux
- awx
- Arch
- KVM
- kolla-ansible
- HTML
- golang
- terraform
- kolla
- port open
- ceph-ansible
- archlinux
- repository
- Docker
- libvirt
- OpenStack
- Octavia
- nfs-provisioner
- cephadm
- Kubernetes
- Ansible
- grafana-loki
- Kubeflow
- i3
- ceph
- yum
- cloud-init
Archives
- Today
- Total
목록Ceph Mapping (1)
YJWANG
[Ceph] Map File to Object and OSD (Ceph object 저장 원리 알아보기)
Ceph Client는 Data를 Object단위로 분할하여 Ceph (RADOS)에 저장합니다. 이때 Data는 obj로 변환된 후 해당 Pool에 할당돼있는 pg에 할당되고 그 pg는 replicated rule에 의해 OSD에 분산 저장됩니다. 오늘 포스팅은 해당 과정을 자세히 알아보는 시간을 갖고자합니다. 구성 현황 현재 TEST를 위해 CephFS를 구성해두었습니다. root@virt-go-u20-20:~# ceph osd pool ls device_health_metrics testp1 cephfs.testfs.meta cephfs.testfs.data root@virt-go-u20-20:~# ceph fs ls name: testfs, metadata pool: cephfs.testfs.me..
60.Cloud/61.Ceph
2021. 12. 3. 13:46