оборудование для Кластера повышенной доступности
Модераторы: Trinity admin`s, Free-lance moderator`s
оборудование для Кластера повышенной доступности
Назрела необходимость создать Кластер повышенной доступности (High-availability Cluster).
Проще говоря, необходимо построить такую схему, чтобы в случае отказа одного из серверов его функции передаются другому серверу, причем это происходит незаметно для клиента и без потери функциональности. (режим 24х7х365)
Текущая Работающая сейчас схема состоит из трех серверов
1. Сервер Интернет Хостинга (web, mail, FTP)
Корпус Intel SC5000, Мать Intel STL2, 1Gb RAM, 2xPIII-1000, IDE RAID, OS - Linux RH9
2. MSSQL сервер
Корпус Supermicro, Мать Supermicro 370DLE, 1Gb RAM, 2xPIII-1000, IDE RAID, OS - W2k AS
3. Oracle сервер
Корпус Supermicro, Мать Мать Intel STL2, 1Gb RAM, 2xPIII-1000, IDE RAID, OS - Linux RH9
Проектируемая схема:
Описание схемы:
Каждая пара серверов (основной и резервный) подключаются к одному внешнему дисковому массиву с RAID контроллером, с возможностью горячей замены дисков. В случае отказа основного сервера управление автоматически будет передано резервному. Благодаря внешнему дисковому хранилищу резервный сервер будет работать с теми же данными, что и основной.
Во внешнем массиве для каждой пары серверов организуется свой дисковый массив из пары дисков - RAID1 (зеркалирование). В случае выхода из строя одного из дисков массива Raid 1, его можно будет
заменить не прерывая работы серверов.
Для резервирования данных (защита от человеческих ошибок или ошибок софта) дополнительно ставится сервер резервного копирования - это, я так думаю, не шибко производительная машина с большим дисковым массивом. Территориально будет располагаться в другом здании (защита от катастроф). Резервирование будет происходить через LAN.
Я предполагаю пойти по Fibre Channel технологии. В связи с этим список докупаемого оборудования,я думаю будет такой (все должно встраиваться в 19" стойку):
1. FC SAN дисковый массив - 1 шт
2. SCSI HDD 73 Гб для массива - 12 шт
3. FC switch 8 ports - 1 шт
4. FC адаптер - 6 шт
5. FC пачкорды - 7 (+запас)
6. сервер в корпусе 2U , dual Xeon 2400 Mhz, 2-4 Gb RAM, 1 SCSI HDD 36 Gb - 3 шт. серверов. Корпуса 2U - чтоб меньше места занимали
7. сервер резервирования в корпусе 4U с кучей дисков.
Теперь вопросы: (необходимо решение без дорогих излишеств, но так, чтобы схема масштабировалась в будущем.)
1. какой FC SAN дисковый массив выбрать? Подойдет ли Xyratex RR-1422-LVD-FC-1C ?
2. какой FC switch выбрать, какие FC адаптеры, чтобы были совместимы друг с другом и протоколами, с массивом и имели драйвера как для Linux, так и для W2k, а также помещались в корпус 2U (желательно) ?
3. что выбрать для FC пачкордов - оптику или медь (все оборудование с FC будет в одной комнате)? - соответственно чтоб были учтены различные нюансы: соответствующие разъемы, длина и т.п.
4. какой корпус и материнку выбрать для того, чтобы в корпусе 2U поместили в себе FC адаптер, три 100 Mbit Nic (можно 2- встроеннх, 1 отдельной платой или варианты с отдельными многопортовыми), имели встоенный SCSI контроллер. Raid контроллеры и корзина не нужны.
5. какие недостатки Вы видете в этой схеме?
Спасибо, Дмитрий.
Проще говоря, необходимо построить такую схему, чтобы в случае отказа одного из серверов его функции передаются другому серверу, причем это происходит незаметно для клиента и без потери функциональности. (режим 24х7х365)
Текущая Работающая сейчас схема состоит из трех серверов
1. Сервер Интернет Хостинга (web, mail, FTP)
Корпус Intel SC5000, Мать Intel STL2, 1Gb RAM, 2xPIII-1000, IDE RAID, OS - Linux RH9
2. MSSQL сервер
Корпус Supermicro, Мать Supermicro 370DLE, 1Gb RAM, 2xPIII-1000, IDE RAID, OS - W2k AS
3. Oracle сервер
Корпус Supermicro, Мать Мать Intel STL2, 1Gb RAM, 2xPIII-1000, IDE RAID, OS - Linux RH9
Проектируемая схема:
Описание схемы:
Каждая пара серверов (основной и резервный) подключаются к одному внешнему дисковому массиву с RAID контроллером, с возможностью горячей замены дисков. В случае отказа основного сервера управление автоматически будет передано резервному. Благодаря внешнему дисковому хранилищу резервный сервер будет работать с теми же данными, что и основной.
Во внешнем массиве для каждой пары серверов организуется свой дисковый массив из пары дисков - RAID1 (зеркалирование). В случае выхода из строя одного из дисков массива Raid 1, его можно будет
заменить не прерывая работы серверов.
Для резервирования данных (защита от человеческих ошибок или ошибок софта) дополнительно ставится сервер резервного копирования - это, я так думаю, не шибко производительная машина с большим дисковым массивом. Территориально будет располагаться в другом здании (защита от катастроф). Резервирование будет происходить через LAN.
Я предполагаю пойти по Fibre Channel технологии. В связи с этим список докупаемого оборудования,я думаю будет такой (все должно встраиваться в 19" стойку):
1. FC SAN дисковый массив - 1 шт
2. SCSI HDD 73 Гб для массива - 12 шт
3. FC switch 8 ports - 1 шт
4. FC адаптер - 6 шт
5. FC пачкорды - 7 (+запас)
6. сервер в корпусе 2U , dual Xeon 2400 Mhz, 2-4 Gb RAM, 1 SCSI HDD 36 Gb - 3 шт. серверов. Корпуса 2U - чтоб меньше места занимали
7. сервер резервирования в корпусе 4U с кучей дисков.
Теперь вопросы: (необходимо решение без дорогих излишеств, но так, чтобы схема масштабировалась в будущем.)
1. какой FC SAN дисковый массив выбрать? Подойдет ли Xyratex RR-1422-LVD-FC-1C ?
2. какой FC switch выбрать, какие FC адаптеры, чтобы были совместимы друг с другом и протоколами, с массивом и имели драйвера как для Linux, так и для W2k, а также помещались в корпус 2U (желательно) ?
3. что выбрать для FC пачкордов - оптику или медь (все оборудование с FC будет в одной комнате)? - соответственно чтоб были учтены различные нюансы: соответствующие разъемы, длина и т.п.
4. какой корпус и материнку выбрать для того, чтобы в корпусе 2U поместили в себе FC адаптер, три 100 Mbit Nic (можно 2- встроеннх, 1 отдельной платой или варианты с отдельными многопортовыми), имели встоенный SCSI контроллер. Raid контроллеры и корзина не нужны.
5. какие недостатки Вы видете в этой схеме?
Спасибо, Дмитрий.
- CyberDrake
- free-lance moderator
- Сообщения: 338
- Зарегистрирован: 23 авг 2002, 10:39
- Откуда: Санкт-Петербург
- Контактная информация:
В принципе, на мой взгляд, все правильно. Теперь постараюсь дать ответы на поставленные вопросы:
1. Какой FC SAN дисковый массив выбрать? Подойдет ли Xyratex RR-1422-LVD-FC-1C ?
Подойдет, но я бы задумался о дисковом массиве с двумя RAID контроллерами и дисками FC, например RIVA RAID от того же Chaparral (такие модели обладают значительно более высокой производительностью и масштабируемостью). Хотя если бюджет ограничен, то вполне можно обойтись и этой моделью.
2. Какой FC switch выбрать, какие FC адаптеры, чтобы были совместимы друг с другом и протоколами, с массивом и имели драйвера как для Linux, так и для W2k, а также помещались в корпус 2U (желательно) ?
FC switch я бы поставил 16 портовый - всяко придется подключать в будущем еще какие-либо серверы - тот же Backup server можно подключить по оптике напрямую к дисковому массиву. Из FC свичей могу порекомендовать QLogic SANBox2. В качестве адаптеров Qlogic 2340 (есть и low profile), хотя к 2U серверу supermicro можно прикупить елку и заднюю панель для установки полнопрофильных карт. Дрова для него есть как для Linux, так и для Windows. При работе нерешаемых проблем не возникало.
3. Что выбрать для FC пачкордов - оптику или медь (все оборудование с FC будет в одной комнате)? - соответственно чтоб были учтены различные нюансы: соответствующие разъемы, длина и т.п.
На текущий момент, я бы однозначно выбрал оптику. В настоящее время более популярны разъемы LC.
4. Какой корпус и материнку выбрать для того, чтобы в корпусе 2U поместили в себе FC адаптер, три 100 Mbit Nic (можно 2- встроеннх, 1 отдельной платой или варианты с отдельными многопортовыми), имели встоенный SCSI контроллер. Raid контроллеры и корзина не нужны.
Посмотрите на http://www.supermicro.com/Product_page/product-s.htm 2-х юнитовые платформы.
5. Какие недостатки Вы видете в этой схеме?
А что будет, если сгорит дисковый массив. Неплохо было бы его задублировать, но это несколько другие деньги...
1. Какой FC SAN дисковый массив выбрать? Подойдет ли Xyratex RR-1422-LVD-FC-1C ?
Подойдет, но я бы задумался о дисковом массиве с двумя RAID контроллерами и дисками FC, например RIVA RAID от того же Chaparral (такие модели обладают значительно более высокой производительностью и масштабируемостью). Хотя если бюджет ограничен, то вполне можно обойтись и этой моделью.
2. Какой FC switch выбрать, какие FC адаптеры, чтобы были совместимы друг с другом и протоколами, с массивом и имели драйвера как для Linux, так и для W2k, а также помещались в корпус 2U (желательно) ?
FC switch я бы поставил 16 портовый - всяко придется подключать в будущем еще какие-либо серверы - тот же Backup server можно подключить по оптике напрямую к дисковому массиву. Из FC свичей могу порекомендовать QLogic SANBox2. В качестве адаптеров Qlogic 2340 (есть и low profile), хотя к 2U серверу supermicro можно прикупить елку и заднюю панель для установки полнопрофильных карт. Дрова для него есть как для Linux, так и для Windows. При работе нерешаемых проблем не возникало.
3. Что выбрать для FC пачкордов - оптику или медь (все оборудование с FC будет в одной комнате)? - соответственно чтоб были учтены различные нюансы: соответствующие разъемы, длина и т.п.
На текущий момент, я бы однозначно выбрал оптику. В настоящее время более популярны разъемы LC.
4. Какой корпус и материнку выбрать для того, чтобы в корпусе 2U поместили в себе FC адаптер, три 100 Mbit Nic (можно 2- встроеннх, 1 отдельной платой или варианты с отдельными многопортовыми), имели встоенный SCSI контроллер. Raid контроллеры и корзина не нужны.
Посмотрите на http://www.supermicro.com/Product_page/product-s.htm 2-х юнитовые платформы.
5. Какие недостатки Вы видете в этой схеме?
А что будет, если сгорит дисковый массив. Неплохо было бы его задублировать, но это несколько другие деньги...
16 портовый QLogic SANbox2 получается в 3 раза дороже чем 8 портовый. А нельзя ли, при необходимости рассширения, каскадно поставить второй 8 портовый?FC switch я бы поставил 16 портовый - всяко придется подключать в будущем еще какие-либо серверы
Понял. Я выбираю оптику. А оптику и разъемы LC поддердвают QLogic SANbox2 и Xyratex RR-1422-LVD-FC-1C? Я боюсь, чтоб не получилось в разнобой.На текущий момент, я бы однозначно выбрал оптику. В настоящее время более популярны разъемы LC.
Для меня непонятно: если использовать и отику и медь одновременно, как с этим справляется Fabric Switch QLogic SANbox2? Он поддерживает и то и то
Да, в схеме есть забелы, но для для организации без единой точки отказа пока не хватает денег
У меня еще один вопрос
1. Какая спецификация оборудования, находящегося между FC коммутатором и FC адаптерами, и между FC коммутатором и FC портом на SAN storage RR-1422-LVD-FC-1C ? проще говоря Это будут только оптические кабели с разъемы LC на концах, или потребуется еще и какие-то переходники. Какой марки кабель должен быть? Я не селен в FC, поэтому прошу помочь.
У меня еще один вопрос
1. Какая спецификация оборудования, находящегося между FC коммутатором и FC адаптерами, и между FC коммутатором и FC портом на SAN storage RR-1422-LVD-FC-1C ? проще говоря Это будут только оптические кабели с разъемы LC на концах, или потребуется еще и какие-то переходники. Какой марки кабель должен быть? Я не селен в FC, поэтому прошу помочь.
- CyberDrake
- free-lance moderator
- Сообщения: 338
- Зарегистрирован: 23 авг 2002, 10:39
- Откуда: Санкт-Петербург
- Контактная информация:
16 портовый QLogic SANbox2 получается в 3 раза дороже чем 8 портовый. А нельзя ли, при необходимости рассширения, каскадно поставить второй 8 портовый?
Да, конечно можно. И это будет дешевле.
А оптику и разъемы LC поддерживают QLogic SANbox2 и Xyratex RR-1422-LVD-FC-1C?
В настоящее время большинство продуктов используют GBIC (Gigabit Interface Connector), которые вставляются в интерфейсные модули. Они могут быть как медные, так и оптические. SANBox2 и RR-1422 поддерживают и те и другие, как и большинство всего остального оборудования SAN.
Что касается нагрузки, думаю здесь узким местом может быть производительность дискового массива.
Оптика нужна многомодовая 50мкм
Да, конечно можно. И это будет дешевле.
А оптику и разъемы LC поддерживают QLogic SANbox2 и Xyratex RR-1422-LVD-FC-1C?
В настоящее время большинство продуктов используют GBIC (Gigabit Interface Connector), которые вставляются в интерфейсные модули. Они могут быть как медные, так и оптические. SANBox2 и RR-1422 поддерживают и те и другие, как и большинство всего остального оборудования SAN.
Что касается нагрузки, думаю здесь узким местом может быть производительность дискового массива.
Оптика нужна многомодовая 50мкм
Да, что бы его поставить на RH9 надо повозиться с библиотеками.S&L писал(а):Как я предполагаю, вы не отягощены формальными отношениями
с ораклом (РН9 официально не поддерживается), так почему
вместо fail-over кластера не использовать parallel database cluster,
то бишь RAC. Получится active-active в случае с ораклом.
Сразу говорю, что про RAC знаю мало. У меня вопрос.
1. При RAC сервера использует общие табличные пространства или хранят локальные копии?
2. При падении одного из серверов доступ к данным не пострадает? Второй возьмет на себя функции первого?
Кто сейчас на конференции
Сейчас этот форум просматривают: нет зарегистрированных пользователей и 3 гостя