Тестирование VMware vSAN: процесс, результат, выводы
5 (100%) 1 vote

Представьте ситуацию: на собранном из Intel NUC дата-центре размещается программная СХД. Она отличается стойкой неубиваемостью (подтверждено на практике уборщицей, повредившей кластер). Чтобы утвердиться в этом мнении окончательно, было решено vSAN протестировать не на одном сервере, а на нескольких с хорошей конфигурацией. Это решение помогло оценить степень отказоустойчивости и производительность. Делимся полученными результатами.

Особенности vSAN и возможные проблемы

Что же собой представляет VMware Virtual SAN для виртуальных машин? Простыми словами: это серверный кластер. Можем перечислить его особенности:

  • гипервизор с запуском сразу с «железа»;
  • «горячие» данные на HDD, медленные данные на SSD;
  • независимые компоненты;
  • отдельно сконфигурированное хранилище на базе (например, SAN).

Добавьте к этому, что не все элементы системы, изготовлены одним производителем. «Полнейший зоопарк!» — скажете вы.

Проблема видна сразу: как выполнить его администрирование, развертывание? Как стыковать тикеты для технических поддержек от различных вендоров? Разбираемся! Оказывается, некоторые железки сервер воспринимает в качестве дисков для записи. К тому же существуют и другие системы – гиперконвергентные, в которых выдается юнит универсального типа. Он-то и отвечает за взаимодействие всего в комплексе. Информация об этом будет собрана в единой панели управления. Но в случае надобности добавляются еще несколько юнитов, что поможет компенсировать возросшие нагрузки. Таким образом, администрирование стандартизируется и, соответственно, упрощается.

В нашем случае на VMware Virtual SAN развертывается инфраструктура именно гиперконвергентная. Основное в таком симбиозе – плодотворная интеграция с Virtual Sphere (сегодня она лидирует). Благодаря этому, на серверах можно за несколько минут развернуть программное хранилище, оптимально распределить нагрузку, кешировать операции «чтение-запись», управлять операциями «ввода-вывода» на низком уровне. К этому еще плюсуйте минимальный объем нагрузки, оказываемой на процессор и память. Следует отметить и некоторое снижение прозрачности системной функциональности, но все работает на уровне automagically.

All-flash vSAN: тестирование

Предлагаем рассмотреть, как vSAN используется в качестве all-flash (гибридного хранилища). В нашем случае конфигурация чистая. Весь расчет на то, что она оптимально подойдет в соотношении своих качеств производительности и стоимостью. Сравнивая ее с гибридной конфигурацией, когда используются магнитные диски, заметна низкая суммарная емкость. Но есть ли возможность этого избежать, хотя бы частично? Для проверки задействовали такую схему: erasure coding+дедупликацию+компрессию «на лету». Получили: эффективность хранения приближена к гибридным решениям, но с более быстрой реакцией при минимальном overhead.

Чтобы протестировать производительность, взяли ПО от HCIBench (v1.6.6), а именно инструмент VDbench для синтетического нагрузочного тестирования. С его помощью автоматизируется процесс создания нескольких виртуальных машин, и в то же время упрощается автоматизация тестирования в кластере HCI. Набор тестов был одинаковым для различных профилей нагрузки. Выполнялась эмуляция 3-х разных объемов активных данных, чтобы проверить поведение системы, эффективность механизма управления данными.

Результаты

Общие показатели системы по результатам проведенных тестов оказались удовлетворительными для разноплановых задач – рядовых, высоконагруженных. Отказоустойчивость проверялась методом последовательного отключения узлов, хотя машины возмущались. Порадовала живучесть системы после перезапуска всех узлов:

  • беспроблемная синхронизация;
  • запуск машин без задержек;
  • не нарушена целостность данных.

Общие рекомендации по vSAN

Практическая реализация vSAN имеет право на жизнь. Но стоп-фактор в виде высокой цены на лицензию останавливает многих. При создании инфраструктуры «с нуля» общепринятая, со сходной конфигурацией СХД, может по стоимости получиться тоже не маленькой. Но отличия, все же, будут – сниженная степень гибкости администрирования и масштабирования.

В случае с решением на GlusterFS либо на Ceph есть ряд преимуществ vSAN:

  • тесное интегрирование с нужными компонентами;
  • простое администрирование;
  • удобное развертывание;
  • на небольшом количестве узлов производительность выше.

Сократить затраты тоже можно: существует специальная схема лицензирования, рассчитанная на определенное количество машин. А чтобы оптимально распределить трафик для vSAN all-flash, по архитектуре потребуется 10 Гб интернета с двумя линками на один узел. Таким образом, экономится и место в стойке, и можно отказаться от Fibre Channel.

Применение vSAN для филиалов — еще один прекрасный повод к его развертыванию. Это позволит получить всего на 2-х узлах отказоустойчивое хранилище, а также эти узлы «зеркалить».