помогите подобрать хранилище и контроллер для простого класт

Как создать сервер оптимальной конфигурации.

Модераторы: Trinity admin`s, Free-lance moderator`s

Ответить
Igor Lemeshko
Junior member
Сообщения: 3
Зарегистрирован: 16 сен 2005, 12:29

помогите подобрать хранилище и контроллер для простого класт

Сообщение Igor Lemeshko » 16 сен 2005, 14:01

Hi ALL,

Надо создать бюджетный  двухузловой кластер , Windows 2003, Exchange 2003.
Внешний массив должен поддерживать RAID 0,10.
Интересуют связки Storage Adapter - Storage.
Желательно сертифицированные Microsoft для работы в кластере.
Бюджет хранилища без дисков < $2000.
Microsoft HCL:
http://www.microsoft.com/windows/catalo ... e9cd3ae95b

Нашел такое решение:

Внешнее хранилище
RR-0812-LVD(< $2000)  
адаптер
Adaptec 39320 SCSI Adaptec *Adaptec ASC39320A.


Xtore XD-D102-212R XD 1000 Hard Drive Array - SCSI - а вот еще одно не дорогое хранилище, но c внутренним RAID контроллером.
http://www.bytewizecomputers.com/products/7/1/820/8867

Бюджет одного узла+хранилище - $5300.

Help!

Аватара пользователя
gs
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 16650
Зарегистрирован: 23 авг 2002, 17:34
Откуда: Москва
Контактная информация:

Сообщение gs » 16 сен 2005, 14:05

Честно говоря в такой бюджет у нас нету ничего :(

Аватара пользователя
exLH
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 5061
Зарегистрирован: 11 фев 2004, 15:49
Откуда: Москва
Контактная информация:

Сообщение exLH » 19 сен 2005, 16:13

тут очень интересная ситуация с кластерами, хранилищами и т.п.:
Для начала, надо четко понимать задачу. Их может быть две:

а) Смоделировать кластер (для обучения, для тестирования работоспособности в кластерном режиме, для демонстрации возможностей). В этом случае, речь не идет ни о каком "продакшине" - отказоустойчивость не интересует. Цена - чем меньше, тем лучше (лишь бы с тестовыми паттернами конфиг справлялся).

б) Стоит задача повысить отказоустойчивость существующей системы. А вот тут надо хорошенько посмотреть, не приведет ли создание кластера к возникновению потенциально бОльших проблем, нежели его отсутствие. Какие плюсы кластерного решения:
1) если все сложилось удачно, то после выхода одной ноды кластера из строя, пользователям потребуется переконнектиться.
2) Ну, собственно, и все.
Какие могут быть проблемы после создания кластера:
1) Порвался heartbeat между нодами - кластеру "капут".
2) Отказал контроллер в дисковом массиве - кластеру "капут"
3) Если дисковый массив без контроллера (перечисленные Вами модели), то вообще любой "чих" приведет к тому, что кластер "ляжет". Причем даже выход сервера из строя может запросто "положить" кластер. Т.е. вместо отказоустойчивости, Вы получаете отказофилию :)

Поэтому, если Вы хотите повысить отказоустойчивость, надо вместе с построением кластера использовать как минимум двухконтроллерный массив. Иначе вместо желаемой отказоустойчивости получите совсем даже наоборот.

Igor Lemeshko
Junior member
Сообщения: 3
Зарегистрирован: 16 сен 2005, 12:29

Сообщение Igor Lemeshko » 19 сен 2005, 17:57

exLH писал(а):тут очень интересная ситуация с кластерами, хранилищами и т.п.:
Для начала, надо четко понимать задачу. Их может быть две:

а) Смоделировать кластер (для обучения, для тестирования работоспособности в кластерном режиме, для демонстрации возможностей). В этом случае, речь не идет ни о каком "продакшине" - отказоустойчивость не интересует. Цена - чем меньше, тем лучше (лишь бы с тестовыми паттернами конфиг справлялся).

б) Стоит задача повысить отказоустойчивость существующей системы. А вот тут надо хорошенько посмотреть, не приведет ли создание кластера к возникновению потенциально бОльших проблем, нежели его отсутствие. Какие плюсы кластерного решения:
1) если все сложилось удачно, то после выхода одной ноды кластера из строя, пользователям потребуется переконнектиться.
2) Ну, собственно, и все.
Какие могут быть проблемы после создания кластера:
1) Порвался heartbeat между нодами - кластеру "капут".
2) Отказал контроллер в дисковом массиве - кластеру "капут"
3) Если дисковый массив без контроллера (перечисленные Вами модели), то вообще любой "чих" приведет к тому, что кластер "ляжет". Причем даже выход сервера из строя может запросто "положить" кластер. Т.е. вместо отказоустойчивости, Вы получаете отказофилию :)

Поэтому, если Вы хотите повысить отказоустойчивость, надо вместе с построением кластера использовать как минимум двухконтроллерный массив. Иначе вместо желаемой отказоустойчивости получите совсем даже наоборот.
Спасибо за совет, я как раз смотрел разницу между контроллерами Adaptec 39320-R и  29320A-R. Первый двухканальный. Разница в цене небольшая(<$100).
Хотя до конца  нет ясности в этом вопросе.
Ведь вместо того, чтобы иметь один RAID в ящике с дисками(хотя есть коробки и с двумя raid контроллерами на борту), мы имеем 2 адаптера  в каждом из узлов. Может быть даже двухканальные. Конечно смотря как откажет RAID контроллер - не важно в ноде он,
или во внешнем ящике.

Аватара пользователя
gs
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 16650
Зарегистрирован: 23 авг 2002, 17:34
Откуда: Москва
Контактная информация:

Сообщение gs » 19 сен 2005, 18:06

Если контроллер во внешнем ящике, то в большинстве случаев он гораздо стабильнее писиайных.
Если контроллеры в серверах, то кроме проблем со стабильностью их фирмвари добавляется ЕЩЕ и проблемы совместной кабельной системы - если Вы с такими связками еще не сталкивались, можете быть крайне неприятно удивлены массой возможных глюков.

Вообще, если не хватает денег на нормальный кластер (т.е. полноценный внешний рэйд, желательно с двумя контроллерами), то лучше не парьтесь и сделайте просто приличный сервер со всеми возможными защитами (двойные БП, standby диски, ЗИП). Это будет в конечном итоге гораздо надежнее псевдокластера за пять копеек.

Аватара пользователя
exLH
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 5061
Зарегистрирован: 11 фев 2004, 15:49
Откуда: Москва
Контактная информация:

Сообщение exLH » 19 сен 2005, 18:19

Igor Lemeshko писал(а):Спасибо за совет, я как раз смотрел разницу между контроллерами Adaptec 39320-R и  29320A-R. Первый двухканальный. Разница в цене небольшая(<$100).
Хотя до конца  нет ясности в этом вопросе.
Ведь вместо того, чтобы иметь один RAID в ящике с дисками(хотя есть коробки и с двумя raid контроллерами на борту), мы имеем 2 адаптера  в каждом из узлов. Может быть даже двухканальные. Конечно смотря как откажет RAID контроллер - не важно в ноде он,
или во внешнем ящике.
Еще раз: если Вы хотите получить хоть сколько-то надежную схему, то Вам нужен двухконтроллерный массив. Вы пытаетесь использовать без-контроллерный вариант. И неважно сколько каналов на адаптерах в серверах. Все равно диски и оба контроллера будут висеть на одной SCSI-шине! А значит любая проблема (чаще всего это терминация) приведет к тому, что кластер упадет обеими нодами. (и хорошо, если поднять сможете быстро).

Аватара пользователя
gs
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 16650
Зарегистрирован: 23 авг 2002, 17:34
Откуда: Москва
Контактная информация:

Сообщение gs » 19 сен 2005, 18:31

Такое чьюдо мы прошлым летом уже спасали. В итоге данные смогли вытащить, но это заняло два дня.

Igor Lemeshko
Junior member
Сообщения: 3
Зарегистрирован: 16 сен 2005, 12:29

Сообщение Igor Lemeshko » 20 сен 2005, 08:46

gs писал(а):Такое чьюдо мы прошлым летом уже спасали. В итоге данные смогли вытащить, но это заняло два дня.
exLH, одна шина - это не есть гуд.
В связи с этим есть такой вопрос.

Вот есть ящики JBOD'ы, цена идет от $1500 за пустую коробку.
А еще есть корзины для интеловских серверов < $300.

Intel <AXX6SCSIDB> SCSI Hot Swap Drive Cage Upgrade Kit (корзина+backplane для уст.6 Hot-swapSCSI винч-в в SC5300):

http://nics.ru/autocatalog/cases_intel/ ... 34154.html

Intel <A2400SCSIKIT> SCSI Backplane Kit (набор для подключения SCSI винчестеров) для корпусов SR2400:

http://www.nix.ru/autocatalog/cases_int ... 33750.html

В чем отличие этих корзин от JBOD?
Из чего состоит JBOD(при такой цене)?

Можно ли, используя два интеловских узла(например SR2400) и общую корзину A2400SCSIKIT, организовать кластер?

До конца у меня тут нет ясности.
Кластер(для изучения) я делал и просто из двух узлов с простыми SCSI контроллерами и одним общим SCSI диском. Оба узла сидели на ОДНОЙ  общей Y-SCSI шине(винт посерединке :)) ).  Причем можно было использовать ACTIVE-ACTIVE режим с ораклоидной кластерной системой или с сырыми разделами.


http://www.ost2000.ru/solution/?id=341
   *  StorCase S10A172 ~3500 usd, JBOD
   * Intel SRCU42X ~670 usd

StorCase S10A172
14 отсеков, 3.5" LP, JBOD 3U Cluster-Ready в стойку, SCSI Ultra320, Dual Channel w/Dual Port Repeaters, 2 блока питания 460Вт...

Что тут имеется ввиду под Cluster-Ready ?
И можно ли было сделать кластер с JBOD'ом

http://www.ost2000.ru/prices/storcase.html
S10A120 $1629

Dual Channel 4 отсеков, 3.5" HH, корпус "Tower", SCSI Ultra320, Dual Channel, 4 каретки для дисков SCSI, ...

Аватара пользователя
a_shats
Advanced member
Сообщения: 5010
Зарегистрирован: 27 авг 2002, 10:55
Откуда: Москва
Контактная информация:

Сообщение a_shats » 20 сен 2005, 10:43

;)
1. Ну и как Вы к 6-дисковой корзине, устанавливаемой в Интеловский корпус и непроходной к тому же (там один SCSI разъем всего) подцепите два сервера ? Забавно будет посмотреть. Перечисленные Вами корзины служат для организации ТОЛЬКО внутренних массивов, и для целей организации кластера совершенно никак не подходят.
2. JBOD - Вам же объясняли - кошмар будет: проходные терминаторы, контроллеры с отключенным SCSI Bus Reset, малейшее шевеление чем угодно - и все умирает.
3. Про StorCase - можете применить все, что выше было сказано про JBOD - т.е. чисто для самообразования и экспериментов сгодится (хотя для экспериментов сгодится и меньшее - пара SCSI HBA умеющих отключать Bus Reset и менять собственный ID, один SCSI винт и длинный шлейф ;) ). Для серьезных задач - совершенно никак.

Аватара пользователя
exLH
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 5061
Зарегистрирован: 11 фев 2004, 15:49
Откуда: Москва
Контактная информация:

Сообщение exLH » 20 сен 2005, 10:43

Igor Lemeshko
Простите, но создается впечатление, что Вы думаете мы Вас обманываем и пытаемся навязать ненужное решение.  :evil:
Intel <AXX6SCSIDB> Intel <A2400SCSIKIT>
Вы видели эти изделия?
В первом случае, это корзина на 6 дисков, устанавливаемая в корпус SC5300. Во втором случае, это плата, которая ставится в корпус SR2400.
Можно ли, используя два интеловских узла(например SR2400) и общую корзину A2400SCSIKIT
КАК Вы это себе представляете?

В во внешнем ящике присутствуют, как правило: два блока питания, система охлаждения (обычно hot-swap, redundant).

StorCase S10A172
Это, фактически, самый минимальный вариант, который будет (кое как) работать. Другой вопрос, будет ли в adaptec hostraid (про который Вы писали раньше) работать в кластере. Я, честно говоря, не знаю. Возможно, не будет.

Если задача стоит повысить отказоустойчивость системы, а не потренироваться "на кошках", то вам нужно (минимум):
1) Внешний дисковый массив SCSI-SCSI (желательно с двумя контроллерми, хотя вариант с одним контроллером тоже имеет право на существование).
2) В каждом сервере по SCSI HBA, на которых ничего внутри не висит.

Ответить

Вернуться в «Серверы - Конфигурирование»

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и 28 гостей