Ceph — бұл қуатты, тасқаулы және қателікті қабылдайтын жасақтар, мазмұнын сақтау үшін анықталған жағдайда сақтау жүйесі.
Осы мақалада біз SUSE Linux Enterprise Server (SLES) жүйесінде Ceph орнату процесін, екі сервер арасындағы асинхронды репликацияны және RADOS Block Device (RBD) снапшоттары арқылы мәліметтерді бұзып қалу мүмкіндігін талқылауға тырысамыз.
Мазмұн
- Орта дайындау
- SLES деп орнату және Ceph-ты баптау
- Ceph-те асинхронды репликацияны және мәліметтерді сақтауға мүмкіндіктерді пайдалану
- Снапшоттарды жасау және мәліметтерді бұзып қалу
1. Орта дайындау
Ceph-ты орнатуға алу алдында келесі компоненттерді қамтамасыз ету керек:
- Екі SLES сервері (мысалы, SLES 15 SP2) және олардың аралық сілтемелері.
- Кластердегі азамат үшін кем дегенде үш құрылғысы (мониторлардың ең кемі өлшемі және минималды OSD).
- Пакеттерді орнату үшін интернетке шолу беру үшін кіріспе.
- Мәліметтерді сақтау үшін диск көлемі.
1.1. Репозиторияларды орнату
Ceph репозиторияларын өндіріп алыңыз:
zypper addrepo --refresh http://download.suse.com/ibs/SUSE:/SLE-15-SP2:/Update/standard/ SLE-15-SP2-Update
zypper addrepo --refresh http://download.suse.com/ibs/SUSE:/SLE-15-SP2:/GA/standard/ SLE-15-SP2-GA
zypper refresh
1.2. Заңды пакеттерді орнату
Қажетті пакеттерді орнатыңыз және жүйені жаңартыңыз:
zypper install -y ceph-deploy python3-pip
pip3 install ceph
zypper update -y
2. SLES-те Ceph орнату және баптау
2.1. Ceph-ты баптау
Әкімші узыны (admin node) үшін ceph-deploy орнатыңыз:
zypper install -y ceph-deploy
2.2. Ceph-ты іске қосу
Ceph-ты барлық уздарға орнатыңыз:
ceph-deploy new <ceph-node1> <ceph-node2> <ceph-node3>
2.3. Ceph-ты уздарға орнату
Ceph-ты барлық уздарға орнатыңыз:
ceph-deploy install <ceph-node1> <ceph-node2> <ceph-node3>
2.4. Мониторлар мен OSD-ты жүйеге қосу
Мониторларды және Object Storage Daemon (OSD) ды уздарға қосыңыз:
ceph-deploy mon create-initial
ceph-deploy osd create --data /dev/sdX <ceph-node1>
ceph-deploy osd create --data /dev/sdY <ceph-node2>
ceph-deploy osd create --data /dev/sdZ <ceph-node3>
3. Ceph-те асинхронды репликацияны және пайдалану
3.1. Деректер сақтау үшін пулдарды жасау
Ceph-те деректерді пайдалану үшін пулдарды жасау мәнін көрсететін екі пул үшін:
ceph osd pool create poolA 128
ceph osd pool create poolB 128
poolA
жәнеpoolB
— бұл біз жасауға тұрақты пулдар.128
— бұл төменде бағытын (PGs), одан кейінде анықталған пулдарға немесе барлық кластерға өзін жасау қажет болады. Саны кластердің өлшеміне және кластердің процесімен байланысты таңдауыңыз керек.
3.2. Мәліметтерді зерттеу
Деректер зерттеу көлемі үшін кластердегі пулдар poolA
және poolB
үшін зерттеу:
ceph osd pool set poolA size 3
ceph osd pool set poolB size 3
size 3
— деректердің осы пулдарда 3 OSD (Object Storage Daemon) те репликациялау қажет.
3.3. Асинхронды репликацияны баптау
Ceph-те асинхронды репликацияны баптау үшін тағы да кейбір параметрлерді орнатыңыз. Осының арқасында poolA
пулы үшін жасаған асинхронды репликацияны көрсету және басқару:
rbd mirror pool enable poolA image
Бұл команда poolA
үшін асинхронды репликацияны қосады. Ceph автоматты түрде бұл пулдан басқа Ceph кластеріне мәліметтерді көшіретін пир құрамына асырады.
3.4. Репликация үшін пирді қосу
Асинхронды репликация үшін пирді қосу үшін rbd mirror pool peer add
командасын пайдаланыңыз. Мысалы:
rbd mirror pool peer add poolA client.admin@remote-cluster
remote-cluster
— бұл Ceph кластерінің атауы, poolA
пулы үшін асинхронды репликацияны орнататын қашық кластер.
4. Снапшоттарды жасау және мәліметтерді бұзып қалу
4.1. Снапшоттарды жасау және басқару
Ceph-те снапшоттар деректердің көшірмесін жасау үшін пайдаланылады, бұл анықтама:
rbd snap create poolA/image@snap1
Бұл команда poolA
пулындағы image
RBD кескісі үшін snap1
атымен снапшотты жасайды.
4.2. Мәліметтерді көшіру (Rewind)
Мәліметтерді снапшотты қалпына келтіру үшін rbd snap rollback
командасын пайдаланыңыз:
rbd snap rollback poolA/image@snap1
Бұл команда poolA
пулындағы image
RBD кескісін snap1
снапшотымен алдын ала келтіреді.
Аяқтама
Ceph SLES-те орнату арқылы қатты, масштабтайтын және қателікті қабылдау жүйесін жасауға мүмкіндік береді, асинхронды репликация және снапшоттар арқылы мәліметтердің қайтару мүмкіндігін қамтамасыз етеді.
Төмендегі анықтамалар мен жақсы бақылаулардың көмегімен, Ceph-теңізіңізді және мәліметтердің қолжетімділігін қамтамасыз едіңіз.
Реклама Google |
![]() |
Назар аударыңыз! Бұл мақала ресми құжат емес.Ақпаратты сақтықпен және сынақ ортасында пайдалану керек.
Заманауи сақтық көшірме жасау, репликациялау, деректерді синхрондау және төлемдік бағдарламадан қорғау жүйелерін құру туралы сұрақтарыңыз болса, қазіргі заманғы деректердің сақтық көшірмесін жасау және қалпына келтіру технологиялары бойынша кеңес алу үшін біздің компанияға хабарласыңыз . Біздің компанияның осы салада 20 жылдан астам тәжірибесі бар. |
Қазақстандағы резервтік көшірудің ең жақсы он тәжірибесі
- oVirt гипервизорын қорғау — терең талдау
- oVirt жүйесінен Proxmox жүйесіне виртуалды машинаны көшіру
- Proxmox-тан oVirt-ке виртуалды машинаны көшіру
- Kubernetes контейнерлерін қорғау — терең талдау
- Proxmox гипервизорын бұзудан қалай қорғауға болады - Терең талдау
- Fail2Ban-ды oVirt жүйесін қорғауда қолдану - Терең талдау
- oVirt гипервизорын сақтандыруды ұйымдастыру — Терең талдау
- Виртуалды машинаны гипервизорлар арасында Proxmox арқылы көшіру
- Proxmox гипервизорын виртуалды машиналардың оңтайлы жұмысын қамтамасыз ету үшін конфигурациялау
- Proxmox-те SSH арқылы root құқықтарының бұзылуынан қорғау: терең талдау