일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- ceph
- i3
- kolla
- repository
- k8s
- OpenStack
- HTML
- yum
- golang
- Ansible
- port open
- libvirt
- KVM
- Docker
- kolla-ansible
- Linux
- ubuntu
- Kubernetes
- cloud-init
- nfs-provisioner
- archlinux
- pacman
- terraform
- Kubeflow
- awx
- cephadm
- Octavia
- Arch
- ceph-ansible
- grafana-loki
Archives
- Today
- Total
목록Ceph Mapping (1)
YJWANG
[Ceph] Map File to Object and OSD (Ceph object 저장 원리 알아보기)
Ceph Client는 Data를 Object단위로 분할하여 Ceph (RADOS)에 저장합니다. 이때 Data는 obj로 변환된 후 해당 Pool에 할당돼있는 pg에 할당되고 그 pg는 replicated rule에 의해 OSD에 분산 저장됩니다. 오늘 포스팅은 해당 과정을 자세히 알아보는 시간을 갖고자합니다. 구성 현황 현재 TEST를 위해 CephFS를 구성해두었습니다. root@virt-go-u20-20:~# ceph osd pool ls device_health_metrics testp1 cephfs.testfs.meta cephfs.testfs.data root@virt-go-u20-20:~# ceph fs ls name: testfs, metadata pool: cephfs.testfs.me..
60.Cloud/61.Ceph
2021. 12. 3. 13:46