FaqCeph.txt 5.4 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990
  1. %META:TOPICINFO{author="roman" comment="reprev" date="1627895777" format="1.1" reprev="1" version="1"}%
  2. %META:TOPICPARENT{name="ListOfFaq"}%
  3. ---+!! Работа с Ceph
  4. %TOC%
  5. ---++ Общие команды Ceph
  6. * Просмотр информации о соостоянии кластера: ceph health, ceph health detail, ceph -w, я использую: watch -n 5 ceph -s)
  7. * Свободное место в кластере по пулам: ceph df
  8. * Список пулов: rados lspools
  9. * Посмотреть список имэджей со снапшотами: rbd --pool ПУЛ ls -l (работает только с rbd пулами one и hdd-pool)
  10. * Экспортировать имэдж: rbd export --export-format qcow2 -p ПУЛ ИМЯИМЭДЖА ПУТЬСИМЕНЕМФАЙЛА
  11. * Прибиндить имэдж к /dev/rbd и работать как с блочным устройством: rbd map ПУЛ/ИМЭДЖ (rbd map one/one-204)
  12. * Отбиндить: rbd unmap /dev/rbd0
  13. %RED%Работать с имэджами только если они не используются или монтировать на RO, иначе ФС на нем побьётся.%ENDCOLOR%
  14. ---++ Работа с OSD
  15. ---+++ Для просмотра статуса всех osd
  16. ceph osd tree
  17. ---+++ Для просмотра свободного места на них
  18. ceph osd df
  19. ---+++ Если проводится запланированная замена OSD
  20. то, чтобы избежать ненужного ребаланса, надо сделать: ceph osd set noout
  21. ---+++ Для удаления osd
  22. запускаем скрипт 'rm-osd.sh НОМЕРOSD' на соответствующем сервере.
  23. Скрипт полуавтоматический, будет спрашивать о каждом действии.
  24. Перед удалением osd желательно знать имя диска для проверки то ли удаляем.
  25. ---+++ Для добавления osd
  26. заходим на fog.
  27. cd /etc/ceph
  28. ceph-deploy --overwrite-conf osd create ИМЯСЕРВЕРА --data ИМЯДИСКА
  29. иногда неправильно определяется типа osd (hdd вместо ssd). Для этого надо сделать
  30. ceph osd crush rm-device-class НОМЕРОСД
  31. ceph osd crush set-device-class ssd НОМЕРОСД
  32. ---+++ Вывести OSD из кластера
  33. ceph osd НОМЕР out
  34. Никогда не пытаться выводить несоклько OSD за раз. Будет очень-очень-очень долгий ребилд и если в процессе что-то екнутся, может случится что-то нехорошее. Ну вобщем поступать как с большим рейдом.
  35. ---++ Влить большой имэдж через опеннебулу в ceph
  36. Иногда нужно влить большой имэдж через опеннебулу в ceph.
  37. Но через web это адское занятие, поэтому делается все иначе:
  38. 1 Создаем в opennebula пустой имэдж в нужном пуле (SSD -> one,HDD-> hdd-pool, ($POOL)) и записываем id ($ID).
  39. 2 Идем на любой сервер с ceph (я юзаю fog)
  40. 3 Скачиваем толстый имэдж ($FILE)
  41. 4 Ищем созданный opennebula пустой имэдж через: rbd ls -l --pool $POOL | grep one-$ID
  42. 5 Если с id и размером все ок, то делаем: rbd rm $POOL/one-$ID
  43. 6 Делаем rbd import $FILE $POOL/one-$ID
  44. ---++ Блочные бэкапы Ceph RBD делаются с помощью backy2 на сервере fog (192.168.13.98)
  45. /usr/local/scripts/backy/backup-total.sh
  46. 1 генерация списка rbd устройств через Opennebula API
  47. 2 Создание инкрементальных бэкапов
  48. 3 Очистка старых бэкапов
  49. Там же есть скрипт scrub.sh, который проверяет целостность бэкапов.
  50. Бэкапы делаются каждую ночь.
  51. При добавлении толстого или ненужного для бэкапа имэджа, его id надо указать в /usr/local/scripts/backy/sub/regen_backup.pl - %skipdisk
  52. Если более прямые варианты (фильтрация по меткам, имени имэджа), но это без надобности, так как редко происходит.
  53. ---++ Links
  54. * Заметки о Ceph - https://ceph-docs.readthedocs.io/ru/latest/
  55. * Ceph Benchmark - https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/1.3/html/administration_guide/benchmarking_performance
  56. * Mastering Ceph (rus) - https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/1.3/html/administration_guide/benchmarking_performance
  57. * Ceph performance - https://yourcmc.ru/wiki/index.php?title=Ceph_performance&mobileaction=toggle_view_desktop#General_benchmarking_principles
  58. * Ceph performance analyze - http://telekomcloud.github.io/ceph/2014/02/26/ceph-performance-analysis_fio_rbd.html
  59. * Ceph PGs - https://docs.ceph.com/en/latest/rados/operations/placement-groups/?
  60. * Nagios - https://nagios.sovtest.ru/cgi-bin//status.cgi?hostgroup=Cloud&style=detail&limit=0&limit=0
  61. * Ceph-deploy (не обновляется) - https://github.com/ceph/ceph-deploy