일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
- k8s
- ubuntu
- cephadm
- ceph
- repository
- terraform
- Octavia
- port open
- pacman
- Kubeflow
- cloud-init
- ceph-ansible
- grafana-loki
- archlinux
- kolla
- Docker
- Linux
- KVM
- libvirt
- HTML
- awx
- yum
- i3
- Arch
- kolla-ansible
- Kubernetes
- OpenStack
- Ansible
- nfs-provisioner
- golang
- Today
- Total
목록60.Cloud (83)
YJWANG
확인 명령을 통해 현재 qdhcp, qrouter가 있는 곳(node)을 확인하고 router에서 active된 l3-agent를 삭제하고 원하는 node로 이관된 경우, 다시 기존에 삭제했던 l3-agent를 add합니다. ### 삭제 neutron l3-agent-router-remove ### 추가 neutron l3-agent-router-add ### 확인 neutron l3-agent-list-hosting-router
참고 사이트 https://docs.openstack.org/nova/latest/admin/node-down.html 2개의 Compute Node 중에서 1개의 Node가 Down됐다는 가정 하에 진행됩니다. 또한 Instance가 Shared Storage를 사용하고있어야합니다. (Cinder LVM 가능) root@virt-go-u20-101:~# openstack compute service list --service nova-compute +----+--------------+-----------------+------+---------+-------+----------------------------+ | ID | Binary | Host | Zone | Status | State | Upd..
아래 세개의 파일을 덮어쓰기하면 favicon과 login page로고 login된 page의 로고를 변경할 수 있습니다. 기존 파일을 copy하여 Backup한 후 복사하면 Logo 변경이 해당 Container 재시작 후에도 유지됩니다. # Backup Default logo docker exec horizon cp /var/lib/kolla/venv/lib/python3.8/site-packages/static/dashboard/img/logo-splash.svg /var/lib/kolla/venv/lib/python3.8/site-packages/static/dashboard/img/logo-splash.svg.org docker exec horizon cp /var/lib/kolla/venv/l..
kolla-ansible로 기본적인 Openstack 구축 가능하다는 전제 하에 기록했습니다. /etc/kolla/globals.yml 파일에 아래와 같은 설정을 추가합니다. enable_cinder_backup: "yes" cinder_backup_driver: "nfs" cinder_backup_share: "10.62.62.1:/data/cinder-backup" cinder_backup_mount_options_nfs: "vers=4" NFS 관련 추가 Option은 아래 페이지를 참고하시기 바랍니다. https://docs.openstack.org/cinder/xena/configuration/block-storage/backup/nfs-backup-driver.html iscsid와 tgtd ..
이전 포스팅 보기 : https://yjwang.tistory.com/119 이번엔 지난 포스팅과 다르게 podman 기반으로 Ceph cluster를 구축하겠습니다. 또한 orchastration module을 yaml을 이용해서 구성해보겠습니다. podman 및 사전에 필요한 패키지와 환경을 구성하기 위해 ubuntu-cephadm-ansible project를 다운받습니다. # git clone https://github.com/YoungjuWang/ubuntu-cephadm-ansible inventory를 수정합니다. # cd ubuntu-cephadm-ansible/ # cat ceph.inventory virt-go-u20-50 ansible_connection=local virt-go-u2..
Ceph Client는 Data를 Object단위로 분할하여 Ceph (RADOS)에 저장합니다. 이때 Data는 obj로 변환된 후 해당 Pool에 할당돼있는 pg에 할당되고 그 pg는 replicated rule에 의해 OSD에 분산 저장됩니다. 오늘 포스팅은 해당 과정을 자세히 알아보는 시간을 갖고자합니다. 구성 현황 현재 TEST를 위해 CephFS를 구성해두었습니다. root@virt-go-u20-20:~# ceph osd pool ls device_health_metrics testp1 cephfs.testfs.meta cephfs.testfs.data root@virt-go-u20-20:~# ceph fs ls name: testfs, metadata pool: cephfs.testfs.me..