Отказоустойчивые СХД для проекта кластера виртуализации
Модераторы: Trinity admin`s, Free-lance moderator`s
Отказоустойчивые СХД для проекта кластера виртуализации
Доброго времени суток!
Есть задача сделать кластер из двух серверов (линукс) под систему виртуализации KVM с 2-мя СХД. Фактически необходимо, что то типа "зеркала" для СХД. Как я понял с СХД такая возможность называется синхронизацией (синхр или асинхр) и работает на неких "фирменных" технологиях.
Позвольте пару вопросов:
1) Насколько адекватна такая синхронизация? Асинхронный режим наверно отпадает сразу. Синхронный режим будет ли аналогом рейда1? Есть какие-то встроенные механизмы контроля.
2) Не лучше ли использовать какие-нибудь кластерные фс в таком случае (мне ближе glusterfs)
3) У меня есть опыт клатеростроения на 2 ноды+ 1 СХД. Но 2 СХД ставят меня в тупик. Как технически строится система с 2-мя СХД, чтобы ноды начали автоматом (или как?) использовать вторую СХД после сбоя первой?
4) Стоимость проекта оценивается в 800-900 т.р вместе с серверами. В качестве серверов видимо будет супермикро 6027R-N3RFT+. Но вот что использовать как СХД и как вязать? Что лучше использовать FC или iSCSI, учитывая, что на сервере вроде есть 10Г. Какие в таком случае использовать коммутаторы? Коммутаторов тоже нужна пара?
Прошу помочь.
Заранее благодарю.
Есть задача сделать кластер из двух серверов (линукс) под систему виртуализации KVM с 2-мя СХД. Фактически необходимо, что то типа "зеркала" для СХД. Как я понял с СХД такая возможность называется синхронизацией (синхр или асинхр) и работает на неких "фирменных" технологиях.
Позвольте пару вопросов:
1) Насколько адекватна такая синхронизация? Асинхронный режим наверно отпадает сразу. Синхронный режим будет ли аналогом рейда1? Есть какие-то встроенные механизмы контроля.
2) Не лучше ли использовать какие-нибудь кластерные фс в таком случае (мне ближе glusterfs)
3) У меня есть опыт клатеростроения на 2 ноды+ 1 СХД. Но 2 СХД ставят меня в тупик. Как технически строится система с 2-мя СХД, чтобы ноды начали автоматом (или как?) использовать вторую СХД после сбоя первой?
4) Стоимость проекта оценивается в 800-900 т.р вместе с серверами. В качестве серверов видимо будет супермикро 6027R-N3RFT+. Но вот что использовать как СХД и как вязать? Что лучше использовать FC или iSCSI, учитывая, что на сервере вроде есть 10Г. Какие в таком случае использовать коммутаторы? Коммутаторов тоже нужна пара?
Прошу помочь.
Заранее благодарю.
- gs
- Сотрудник Тринити
- Сообщения: 16650
- Зарегистрирован: 23 авг 2002, 17:34
- Откуда: Москва
- Контактная информация:
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Что мешает зазеркалировать стораджи средствами ОС?
800-900тыс - это стоимость одной приличной СХД начального уровня. Ну разве что на сервера может немного денег остаться.
800-900тыс - это стоимость одной приличной СХД начального уровня. Ну разве что на сервера может немного денег остаться.
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Каким образом?
рсюнком? нет, не пойдет
рсюнком? нет, не пойдет
- gs
- Сотрудник Тринити
- Сообщения: 16650
- Зарегистрирован: 23 авг 2002, 17:34
- Откуда: Москва
- Контактная информация:
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Вы сначала определитесь - есть ли у Вас денег на такие изыски...
- Stranger03
- Сотрудник Тринити
- Сообщения: 12979
- Зарегистрирован: 14 ноя 2003, 16:25
- Откуда: СПб, Екатеринбург
- Контактная информация:
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Нет, есть опции remote mirror, которые по файберу зеркалируют тома схд друг на друга. Оция не дешовая, для самых лоуенд массивов от 5К долларов.Alex_Saf писал(а):Каким образом?
рсюнком? нет, не пойдет
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Зачем обсуждать деньги?
Вроде бы обсуждаем техническую проблему. Я описал свои трудности. Нужна методология решения. По возможности несколько вариантов. Под эти варианты и подтянут деньги, если захотят. А если не захотят - значит не будет никакого решения.
Вроде бы обсуждаем техническую проблему. Я описал свои трудности. Нужна методология решения. По возможности несколько вариантов. Под эти варианты и подтянут деньги, если захотят. А если не захотят - значит не будет никакого решения.
- Stranger03
- Сотрудник Тринити
- Сообщения: 12979
- Зарегистрирован: 14 ноя 2003, 16:25
- Откуда: СПб, Екатеринбург
- Контактная информация:
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Это очень небольшой бюджет. 300-350 тысяч на сервера. На две СХД остается 500 с небольшим. За эти деньги можно купить что-то вроде Сторвайза В3700 с 4-5 дисками. Ни о каких опциях репликации думать уже не получается.Alex_Saf писал(а):4) Стоимость проекта оценивается в 800-900 т.р вместе с серверами.
- gs
- Сотрудник Тринити
- Сообщения: 16650
- Зарегистрирован: 23 авг 2002, 17:34
- Откуда: Москва
- Контактная информация:
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Знаете, мы можем обсуждать варианты резервирования и за мегабаксы. Но вот оно нам надо? У Вас вполне очевидно нехватка бюджета в разы.
В таком случае разумнее сменить схему обеспечения отказоустойчивости. Не знаю, как быть с КВМ, но для микрософта и вмвари есть очень неплохие варианты, и в бюджет вполне влезет.
В таком случае разумнее сменить схему обеспечения отказоустойчивости. Не знаю, как быть с КВМ, но для микрософта и вмвари есть очень неплохие варианты, и в бюджет вполне влезет.
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Про рсюнк писалось в ответ на средства ОС.Stranger03 писал(а):Нет, есть опции remote mirror, которые по файберу зеркалируют тома схд друг на друга. Оция не дешовая, для самых лоуенд массивов от 5К долларов.Alex_Saf писал(а):Каким образом?
рсюнком? нет, не пойдет
Как я понимаю remote mirror это не средства ос нод, а средства самого схд. Это и будет что-то типа райд1?
Какие СХД это поддерживают?
- Stranger03
- Сотрудник Тринити
- Сообщения: 12979
- Зарегистрирован: 14 ноя 2003, 16:25
- Откуда: СПб, Екатеринбург
- Контактная информация:
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Два варианта:Alex_Saf писал(а):Я описал свои трудности. Нужна методология решения. По возможности несколько вариантов. Под эти варианты и подтянут деньги, если захотят. А если не захотят - значит не будет никакого решения.
1. реплицировать средствами ОСи. Делается легко на уровне мирроринга томов. Платить за это не надо.
2. средствами СХД. Минимум по 5К $ на каждую СХД
Ну и если вы хотите получить более ли менее нормальную СХД, то на нее на одну штуку надо закладывать от 500К рублей, от 15К $
П.С. поправьте город в профиле.
- Stranger03
- Сотрудник Тринити
- Сообщения: 12979
- Зарегистрирован: 14 ноя 2003, 16:25
- Откуда: СПб, Екатеринбург
- Контактная информация:
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Да, практически все брендовые. Делл, ЕМС, ИБМ, ХП, Хитачи, Фуджитсу.Alex_Saf писал(а):Как я понимаю remote mirror это не средства ос нод, а средства самого схд. Это и будет что-то типа райд1?
Какие СХД это поддерживают?
Re: Отказоустойчивые СХД для проекта кластера виртуализации
хп мса2040 подойдет?Stranger03 писал(а):Да, практически все брендовые. Делл, ЕМС, ИБМ, ХП, Хитачи, Фуджитсу.Alex_Saf писал(а):Как я понимаю remote mirror это не средства ос нод, а средства самого схд. Это и будет что-то типа райд1?
Какие СХД это поддерживают?
Все же вопрос как эти две схд будут коммутироваться с серверами? Между СХД лежит фибра и они чегой-т там зеркалят. Скажем на каждом СХД 2 контроллера. Первое СХД связано с обоими серверами. На каждом из серверов стоят два HBA или один двухголовый. Юзается мультипатч. Тут ясно. А второе СХД как приторочить? В вышеназванной схеме первое СХД склеило ласты, как кластер подцепит второе СХД?
- Stranger03
- Сотрудник Тринити
- Сообщения: 12979
- Зарегистрирован: 14 ноя 2003, 16:25
- Откуда: СПб, Екатеринбург
- Контактная информация:
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Здесь тоже несколько вариантов.Alex_Saf писал(а):Про рсюнк писалось в ответ на средства ОС.
1. через репликацию томов по сети
2. миррор томов по файберу средствами вольюм менеджмент.
- Stranger03
- Сотрудник Тринити
- Сообщения: 12979
- Зарегистрирован: 14 ноя 2003, 16:25
- Откуда: СПб, Екатеринбург
- Контактная информация:
Re: Отказоустойчивые СХД для проекта кластера виртуализации
Для прямого подключения ремоте миррор бесполезен. Нужен файберный коммутатор. Это еще +10К. В этом случае обычное зеркалирование на уровне ОС.Alex_Saf писал(а):хп мса2040 подойдет?
Все же вопрос как эти две схд будут коммутироваться с серверами? Между СХД лежит фибра и они чегой-т там зеркалят. Скажем на каждом СХД 2 контроллера. Первое СХД связано с обоими серверами. На каждом из серверов стоят два HBA или один двухголовый. Юзается мультипатч. Тут ясно. А второе СХД как приторочить? В вышеназванной схеме первое СХД склеило ласты, как кластер подцепит второе СХД?
Re: Отказоустойчивые СХД для проекта кластера виртуализации
А если использовать иСкази? Не дешевле/эфективней?
И что вы подразумеваете под "зеркалированием на уровне ОС"? В частности в контексте линукса?
Вы имеете ввиду md ?
И что вы подразумеваете под "зеркалированием на уровне ОС"? В частности в контексте линукса?
Вы имеете ввиду md ?
Кто сейчас на конференции
Сейчас этот форум просматривают: нет зарегистрированных пользователей и 36 гостей