решение на базе infiniband.

Технологии постороения кластеров (вычислительных и отказоустойчивых), настройка терминал серверов,
SAN , NAS, FibreChannel, Infiniband

Модераторы: Trinity admin`s, Free-lance moderator`s

Ответить
opt1k
Junior member
Сообщения: 2
Зарегистрирован: 07 май 2011, 03:28
Откуда: Москва

решение на базе infiniband.

Сообщение opt1k » 07 май 2011, 04:08

Добрый день сделаю небольшое предисловие:
на днях, аккурат перед моим отпуском, новый и единственный сервер предприятия стал зависать. Сначала это было 3 раза и 2 раза в день. Потом время работы сократилось до 15 минут... 1 день меня не было. А проблему я смог выявить и устранить лишь к 2 часам следующего дня. В своё время моё предложение по отказоустойчивой виртуализации было отклонено в виду дороговизны. Теперь же меня судя по всему поняли и попросили выдать стоимость решения.

Итак, на сегодняшний день имеем:
1) Железо: SuperServer 6026T-6RF+, 2хXeon5650, 24Gb RAM, raid 1+0@600Gb sas 6Gbsp/s
2) ПО: хост(kvm) centos 5.6, гостевая win2008AD+term server на 30-40 конкурентных пользователей 1с(файловая). И ещё несколько виртуалок с линуксами, бсд, серерами адм-ия антивирусов и т.д.

Задача:
Нужно обеспечить отказоустойчивость гостевой терминалки 1с на 2008 винде.

Есть куча возможных решений, большинство из них подразумевает использование дорогостоящих NAS/SAN и т.д. Это вариант нам не подходит, потому что: а) дорого, б) при цене начинающейся от 200т.р. хранилище будет относительно ограничено ПО I/O(например, если мы говорим о ксиратексе, то это всего лишь 4 гигабита и относительно высокие задержки, что для файловой 1с очень плохо.).
В поисках альтернатив я набрёл на вариант использования двух одинаковых серверов и синхронизации их дисковых устройств, например с помощью drbd. В этом случае хранилище не нужно, что резко снижает стоимость(я бы сказал в разы). Я собрал тестовый стенд и потестировал drbd на гигабитном линке - производительность ужасная. Почитал в инете что узкое место для drbd это задержки. Начал искать решение с низкими задержками и набрёл на железку http://www.supermicro.com/products/acce ... IBQ-M2.cfm. Задежка 1мкс, отзывы в забугорных рассылках говорят что drbd поверх sdr infiniband работает очень хорошо. Но есть желание это проверить и попутно выяснить несколько вопросов:
1) если я буду соединять 2 сервера такими железками нужен ли мне свитч, или хватит только кабеля и двух адаптеров? (говорят что свитч не нужен)
2) заработают ли AOC-UIBQ-M2 у меня под Centos?
3) есть 2 модели AOC-UIBQ-M1 и AOC-UIBQ-M2 с 1 и 2я портами qdr. Шина позволяет пропускать лишь 40 гигабит. Зачем 2 40 гигабитных порта, если шина пропустит в лучше случае 40 гигабит, в чём профит?
4) какое ПО необходимо использовать помимо Centos?
5) даёте ли вы оборудование на тест(со 100% оплатой, есесно)?
6) делаете ли вы решение под ключ? т.е. что бы приехал ваш человек, поставил обе карточки, завёл их под центос.

Предложите альтернативу для решения задачи, чем дешевле, тем лучше.

Пока вроде всё, но думаю вопросы ещё будут. Спасибо.

hitower
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 357
Зарегистрирован: 23 дек 2007, 15:35
Откуда: Москва
Контактная информация:

Re: решение на базе infiniband.

Сообщение hitower » 07 май 2011, 18:30

Вам карты именно с разъемом UIO нужны?

Свитч не нужен, заработают карты при соединении напрямую.

opt1k
Junior member
Сообщения: 2
Зарегистрирован: 07 май 2011, 03:28
Откуда: Москва

Re: решение на базе infiniband.

Сообщение opt1k » 07 май 2011, 19:14

устроит любая карта которая заработает на нашей платформе. Насколько я помню там есть PCI-E.

hitower
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 357
Зарегистрирован: 23 дек 2007, 15:35
Откуда: Москва
Контактная информация:

Re: решение на базе infiniband.

Сообщение hitower » 11 май 2011, 11:58

Из софта - необходим вот этот:
http://mellanox.com/content/pages.php?p ... 34#tab-two

По остальным вопросам - написал в почту

Ответить

Вернуться в «Кластеры, Аппаратная часть»

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и 11 гостей