web кластер на линуксе

Технологии постороения кластеров (вычислительных и отказоустойчивых), настройка терминал серверов,
SAN , NAS, FibreChannel, Infiniband

Модераторы: Trinity admin`s, Free-lance moderator`s

Антон Нехороших
Junior member
Сообщения: 10
Зарегистрирован: 06 янв 2004, 02:36

web кластер на линуксе

Сообщение Антон Нехороших » 06 янв 2004, 02:45

Господа, просветите плиз, строем san на qlogic, цепляем все это к писюкам, на которых стоит линукс, ну скажем с ядром 2.6,0, далее монитруем это дело на писюках как ext2 или ext3, ну или на крайний случай xfs, и тут возникает вопрос, разрулитить потоки запросов к серверам можно например через циску, а вот чего будет происходить на файловой системой, на каком принципе она разруливает доступ к данным?
извиняюсь если не так спросил.

S&L
Advanced member
Сообщения: 113
Зарегистрирован: 30 ноя 2003, 13:06

Сообщение S&L » 06 янв 2004, 14:13

Да, спросил так спросил -кто куда рулит? придется
догадываться. Если строите кластер с разделяемым диском,
то надо не ext2 и т.п. использовать, а кластерную файловую
систему, под линуксом их много, но вроде все коммерческие.
sistina и polyserve дают скачать триалы.
--
SL

Антон Нехороших
Junior member
Сообщения: 10
Зарегистрирован: 06 янв 2004, 02:36

Сообщение Антон Нехороших » 06 янв 2004, 15:37

Хм.... cluster file system, ну предположим, тогда провестите о механизме работы оной, проще имхо запатчить скажем ext3.
Указаные конторы как раз и продают готовый конструктив для этого, polyserve мне в этом плане больше понравился, но все требует изучения.

P.S.
вот и думай как купить оборудования ан кучу бабок, а в результате будет как куча металолома :(

Антон Нехороших
Junior member
Сообщения: 10
Зарегистрирован: 06 янв 2004, 02:36

Сообщение Антон Нехороших » 07 янв 2004, 13:46

Вот чего у redhat есть
http://www.redhat.com/docs/manuals/ente ... redfs.html
как видим обычный ext3 или я опять чота не понимаю?

S&L
Advanced member
Сообщения: 113
Зарегистрирован: 30 ноя 2003, 13:06

Сообщение S&L » 07 янв 2004, 16:40

Собственно, чем отличается cfs от обычной ext2, тем что
имеет распределнный менеджер блокировок и сихронизирует
метаданные и кэши на узлах. Если узлы будут только
читать с разделяемого диска, о чем пишется у красной шапочки,
то тогда достаточно и ext2(3). А вот если пишут, тогда нужна
cfs, да если приложение с разных узлов пишет в один и тот же
файл, то и оно должно иметь свои средства блокировки.

Антон Нехороших
Junior member
Сообщения: 10
Зарегистрирован: 06 янв 2004, 02:36

Сообщение Антон Нехороших » 07 янв 2004, 18:13

А если скажем так сделать, сказать работаем без кеширования, то есть прям сразу или с диска или на диск, то по идеи на уровне команд всей фабрики и будет все работать?
не могут же две команды сразу выполнятся, все в порядке живой очереди так сказать :)

S&L
Advanced member
Сообщения: 113
Зарегистрирован: 30 ноя 2003, 13:06

Сообщение S&L » 09 янв 2004, 00:40

Чегой-то форум глючить. Вообщем так - кэширование можно
обойти, включив direct i/o, вроде как ext2 поддерживает, jfs - точно.
Но проблема остается, узлы не будут знать, что они пишут на
разделяемый диск, каждая файловая система будет думать, что она
его использует монопольно. Это дело решается
с помощью cfs (кстати, может и есть free - IBM GPFS или lustre
http://www.clusterfs.com/lustre.html).
Или же само приложение должно разбираться, например,
ораловский RAC могет, а вот web-server - вряд ли.

Антон Нехороших
Junior member
Сообщения: 10
Зарегистрирован: 06 янв 2004, 02:36

Сообщение Антон Нехороших » 09 янв 2004, 02:56

Угу, глюк я тоже поймал :)

Ну в режиме RO я думаю любую fs можно подмонтировать на любое кол-во серваков.
Lustre видел, какая то она староватая.
GPFS тоже нарыл последнюю, в ней черт ногу сломит :)

А вот про Красную шапку загадочно как то все :)
Они же говорят не втыкайте партишен в /etc/fstab, монтировкой будет заниматся специальный софт.
Видимо как раз через свой mount они и добиваются нормальную работу с нодами.
На досуге им напишу и все узнаем :)

А так уже списался с sistina и polyserve, первые предлагают все решить на 8 серверов за 16-24к, а вторые берут примерно 3.5 за процессор.

S&L
Advanced member
Сообщения: 113
Зарегистрирован: 30 ноя 2003, 13:06

Сообщение S&L » 09 янв 2004, 09:15

Странно, я думал, что lustre - это последний писк.
Кстати, красная шапка купила систину. а где gpfs нарыл,
ссылку можно?
А насчет того, что красная шапка пишет о монтировании, так все
правильно - монтированием занимается кластерный софт, так
как файловая система является для него ресурсом и он
ее "перекидывает" с упавшего узла на живой, в случае чего.
Похоже, что мы толкуем про разные вещи - я, например,
про вариант active-active.

Аватара пользователя
CyberDrake
free-lance moderator
Сообщения: 338
Зарегистрирован: 23 авг 2002, 10:39
Откуда: Санкт-Петербург
Контактная информация:

Сообщение CyberDrake » 09 янв 2004, 13:17

Я бы посмотрел на Tivoli SANergy
http://www-306.ibm.com/software/tivoli/ ... s/sanergy/
Работает он следующим образом:
Есть мастер, который видит дисковую систему локально и хранит у себя таблицу секторов, в которой записано, к каким секторам в настоящий момент идет обращение. Мастер, может быть как отдельным сервером, так и кластером. Остальные подключают диск, как сетевой, принадлежащий мастеру. Но по сети идут только запросы на выполнении операций чтения/записи, а сами операции идут по SCSI/FC.
Последний раз редактировалось CyberDrake 09 янв 2004, 13:44, всего редактировалось 1 раз.

Антон Нехороших
Junior member
Сообщения: 10
Зарегистрирован: 06 янв 2004, 02:36

Сообщение Антон Нехороших » 09 янв 2004, 13:21

Так может из-за систины и выходит нормальный кластер в шапке.
GPFS на ibm берешь :) говоришь нужент тебе его апдейт и забираешь, вместе с апдейтом идут сырцы mmfs, кстати все это называется MMFS :)

А насчет шапки, а почему бы не монтировать файловую систему через псевдодевайс :) Ну как например это делается для монтирования iso имиджей.

А говорим мы про одно и тоже :)

Антон Нехороших
Junior member
Сообщения: 10
Зарегистрирован: 06 янв 2004, 02:36

Сообщение Антон Нехороших » 09 янв 2004, 14:27

CyberDrake писал(а):Я бы посмотрел на Tivoli SANergy
http://www-306.ibm.com/software/tivoli/ ... s/sanergy/
И сколько стоит это чудо?

Аватара пользователя
CyberDrake
free-lance moderator
Сообщения: 338
Зарегистрирован: 23 авг 2002, 10:39
Откуда: Санкт-Петербург
Контактная информация:

Сообщение CyberDrake » 09 янв 2004, 14:38

порядка 3 k$ за подключение одной машины

Антон Нехороших
Junior member
Сообщения: 10
Зарегистрирован: 06 янв 2004, 02:36

Сообщение Антон Нехороших » 09 янв 2004, 14:50

А какое ограничение по нодам, вообще конечно по русски почитать было бы здорово.

Аватара пользователя
CyberDrake
free-lance moderator
Сообщения: 338
Зарегистрирован: 23 авг 2002, 10:39
Откуда: Санкт-Петербург
Контактная информация:

Сообщение CyberDrake » 09 янв 2004, 14:54

порядка 3 k$ за подключение одной машины
(да форум что-то глючит :cry: )

Ответить

Вернуться в «Кластеры, Аппаратная часть»