Программно-определяемая СХД (SDS) — невероятная экономия!
Концепция централизованного управления и доставки рабочего окружения конечному пользователю неоднократно доказывала свою экономическую эффективность и практическую целесообразность. Стоит отметить, что помимо экономической выгоды от снижения операционных затрат, внедрение облака также сопровождается и весомыми капитальными вложениями, в частности — в систему хранения данных.
Создание системы хранения данных — процесс не только затратный, но и технологически сложный. Ведь объемы данных, генерируемые в результаты рабочей деятельности организации, увеличиваются не пропорционально ее росту, а существенно его опережая, тем более в крупных компаниях. IT-департаменту необходимо заранее предусматривать варианты масштабирования данной системы, ее модернизации и т.д. Могут возникнуть ошибки: ведь то, что мы заложили в текущем году, уже через несколько лет не только морально, но и технологически устареет.
Возможно ли создать СХД, не ограничивая свой выбор в рамках решений отдельного вендора, сократить затраты на обслуживание СХД, увеличить доходность инвестированного в проект капитала (ROI), добавить новый функционал? Существует ли альтернатива классическому подходу в создании системы хранения данных и как будет выглядеть СХД в будущем?
Виртуализация ресурсов хранения
Известным подходом в создании СХД, активно использующимся в мире, является практика виртуализации ресурсов хранения. В ее основе лежит создание унифицированного контроллера СХД, способного объединять в единые логические пространства дисковые массивы любого вендора, поддерживающего любые протоколы передачи данных. Эти «виртуальные» СХД называют программно-определяемыми, представителями класса Software-Defined-Storage (SDS).
Мировым лидером в этом классе является компания Datacore (далее — DC) с решением SANsymphony-V.
В сущности, SANsymphony-V (SSV) — это программное-обеспечение, которое устанавливается на ОС Windows Server 2012R2 (2008R) и выполняет функции контроллера СХД. В качестве аппаратной платформы используется сервер x86-архитектуры. Таким образом, только вам решать какими техническими характеристиками (здесь имеется ввиду CPU, объем RAM, количество и типы сетевых интерфейсов) он будет обладать. Сервера Datacore (далее ноды) устанавливаются между хостами приложений (UNIX, HP-UX, Sun Solaris, IBM AIX, RedHat Linux, Suse Linux, VMware ESX/vSphere, Citrix XenServer, Windows Server 2012, 2012 R2, 2008, 2008 R2 2003, 2000, Hyper-V, Windows 8, 7, XP) и любой дисковой подсистемой
Использование данного подхода позволяет не ограничиваться в выборе единого поставщика СХД, а комбинировать – приобретать то, что нужно, а не то, что можно.
Таким образом, в случае нехватки бюджета на конкретную модель СХД можно создать ее самому с использованием Datacore.
Вы получите решение, способное конкурировать в функциональном плане с СХД Hi-End уровня, в ценовых категориях от $100 000, за меньшие деньги. SSV предназначено для Enterprise заказчиков: показатель экономической эффективности становится очевиднее при больших объемах данных. Арифметика простая, чем больше — тем экономически эффективнее!
Функционал
Внедрение SSV может быть обусловлено рядом инициатив, начиная с точечного внедрения, к примеру, с целью повышения производительности, существующей СХД под хранение баз данных и использования 30 дневных лицензий для переноса данных между площадками, до масштабного внедрения SDS на весь пул дисковых подсистем.
С функциональной точки зрения мы имеем следующее:
- высокопроизводительный кэш. DataCore использует весь свободный объем ОЗУ (до 1 Tb на ноду) серверов под высокопроизводительный мега-кэш и позволяет получить прирост производительности существующих дисковых подсистем от 3 до 10 раз;
- синхронную репликация данных для обеспечения отказоустойчивости (Fault Tolerance);
- механизмы оптимизации использования дискового пространства (Disk Pooling, ThinProvisioning и т.д.);
- создание динамической иерархической системы хранения данных (AST – Automatic Storage Tiering). DataCore позволяет создать до 15 уровней с динамическим назначением профилей как для ресурсов хранения, так и для данных, c автоматическим перераспределением блоков между уровнями;
- RAID Striping — возможность строить программные RAID0 и RAID1, даже если подключенный DAS этого не может;
- Load Balancing — автоматическая балансировка размещения данных на дисковых ресурсах;
- Performance Analysis —визуальные и статистические инструменты предоставления данных о всевозможных параметрах производительности с указанием «узких» мест;
- Synchronous Mirroring & Auto Failover — синхронная репликация и механизмы автоматического восстановления после сбоев. Функция самолечения дисковых пулов: если физический диск в пуле выходит из строя (или администратор отмечает диск как диск для замены), DataCore автоматически восстанавливает пул на доступных ресурсах;
- Virtual Disk Migration — простая и эффективная миграция данных с физических ресурсов в виртуальные и обратно без остановки приложений;
- Continuous Data Protection (CDP) & Recovery — «живой» журнал изменений на указанном диске с возможностью восстановления из любого состояния или временной точки;
- Online Snapshots;
- Remote Replication — асинхронная репликация на удаленный сайт (катастрофоустойчивость);
- Advanced Site Recovery (ASR) — набор инструментов эффективного автоматического восстановления данных с резервного сайта;
- Random Write Accelerator — преобразование случайной записи в последовательную.
Функционал дедупликации, как можно заметить, не упоминается, но на самом деле повторяющиеся блоки данных, попадающих в кэш, единожды записываются, поэтому алгоритмы дедупликации все-таки присутствуют. Datacore в качестве приоритета ставит производительность и рациональное использование ресурсов. Остановимся на этом поподробнее.
Увеличение производительности
Каждая нода Datacore может использовать до 1 ТБ ОЗУ в качестве кэш-памяти, что значительно лучше использования SSD-дисков под кэш. Блоки данных кэшируются как на запись, так и на чтение. При этом используется механизм упреждающего чтения, т.е. блоки наиболее горячих данных автоматически подгружаются в кэш в зависимости от временных интервалов их использования.
Как правило, рост производительности составляет 300%-400%.
Рациональное использование ресурсов хранения
Концепция SDS подразумевает создание иерархичной системы хранения данных с автоматическим перемещением блоков между необходимыми по производительности в данный момент времени дисками. Экономическую целесообразность данного подхода можно объяснить на примере приобретения флэш-массива под хранение базы данных. Учитывая тот факт, что вся БД не может быть «горячей» (по статистике, лишь на 30% своего объема) в единый момент времени, то логично предположить, что большая ее часть занимает флэш-массив нерационально. Правильнее было бы «отпилить» от всего флэш-массива эти 30% и объединить их с дисками меньшей производительности, тем самым высвобождая оставшиеся 70% под другие задачи.
Похожая ситуация может возникнуть при масштабировании СХД за счет дозакупки новой полки с SSD-дисками, когда в наличии уже есть не до конца используемая СХД с дисками SAS. Рационально было бы объединить их в единую логику, создать двухуровневую СХД, тем самым задействовав уже имеющиеся ресурсы.
В отличие от классической СХД, имеющей, как правило, 3 уровня (SSD, SAS, SATA), SSV предоставляет возможность создавать до 15 уровней, основанных на стоимости, производительности и емкости дисков. Перемещение блоков между уровнями происходит в режиме real-time, задержек в принятии решения о перемещении блоков между уровнями в виде сбора суточной информации и ее анализа не происходит. При этом добавление или удаление физического диска из пула не приводит к каким-либо простоям.
Для заказчиков, планирующих создание отказоустойчивой (катастрофоустойчивой) СХД, SSV станет волшебным средством, позволяющим решить задачу максимально быстро и с минимальными рисками. По сути, необходимо будет ответить всего на два вопроса: какой объем дискового пространства необходим и какой производительности. При этом показатель производительности можно смело увеличить в 2-3 раза, что позволит не промахнуться в выборе нужной дисковой подсистемы.
В принципе, внедрение SSV сопровождается созданием отказоустойчивого решения (минимум 2 ноды). Соображения простые: данные должны быть доступы всегда, без ограничения производительности (при наличии только 1 ноды кэш не работает на запись ввиду риска потери данных в случае сбоя в электропитании).
Подводя итог можно сказать, что SSV позволит, как минимум, рассмотреть альтернативное решение задач, которые стоят перед IТ-департаментом. Оценить экономическую эффективность SDS можно в каждом конкретно взятом случае.
Практика показывает, что заказчики, внедрившие Datacore, не остались равнодушными к данному решению: начав с малого, сегодня они доверяют этому продукту управление все большими массивами данных в инфраструктуре своей компании.
За более подробной информацией по решению Datacore вы можете обращаться к Ивану Орлову, ведущему менеджеру по развитию бизнеса Департамента инфраструктурных решений Управления сервисов Softline
Звоните: +7 (495) 232-00-23 доб. 1527
Пишите: Ivan.Orlov@softline.ru