web кластер на линуксе
Модераторы: Trinity admin`s, Free-lance moderator`s
-
- Junior member
- Сообщения: 10
- Зарегистрирован: 06 янв 2004, 02:36
web кластер на линуксе
Господа, просветите плиз, строем san на qlogic, цепляем все это к писюкам, на которых стоит линукс, ну скажем с ядром 2.6,0, далее монитруем это дело на писюках как ext2 или ext3, ну или на крайний случай xfs, и тут возникает вопрос, разрулитить потоки запросов к серверам можно например через циску, а вот чего будет происходить на файловой системой, на каком принципе она разруливает доступ к данным?
извиняюсь если не так спросил.
извиняюсь если не так спросил.
-
- Junior member
- Сообщения: 10
- Зарегистрирован: 06 янв 2004, 02:36
Хм.... cluster file system, ну предположим, тогда провестите о механизме работы оной, проще имхо запатчить скажем ext3.
Указаные конторы как раз и продают готовый конструктив для этого, polyserve мне в этом плане больше понравился, но все требует изучения.
P.S.
вот и думай как купить оборудования ан кучу бабок, а в результате будет как куча металолома
Указаные конторы как раз и продают готовый конструктив для этого, polyserve мне в этом плане больше понравился, но все требует изучения.
P.S.
вот и думай как купить оборудования ан кучу бабок, а в результате будет как куча металолома

-
- Junior member
- Сообщения: 10
- Зарегистрирован: 06 янв 2004, 02:36
Вот чего у redhat есть
http://www.redhat.com/docs/manuals/ente ... redfs.html
как видим обычный ext3 или я опять чота не понимаю?
http://www.redhat.com/docs/manuals/ente ... redfs.html
как видим обычный ext3 или я опять чота не понимаю?
Собственно, чем отличается cfs от обычной ext2, тем что
имеет распределнный менеджер блокировок и сихронизирует
метаданные и кэши на узлах. Если узлы будут только
читать с разделяемого диска, о чем пишется у красной шапочки,
то тогда достаточно и ext2(3). А вот если пишут, тогда нужна
cfs, да если приложение с разных узлов пишет в один и тот же
файл, то и оно должно иметь свои средства блокировки.
имеет распределнный менеджер блокировок и сихронизирует
метаданные и кэши на узлах. Если узлы будут только
читать с разделяемого диска, о чем пишется у красной шапочки,
то тогда достаточно и ext2(3). А вот если пишут, тогда нужна
cfs, да если приложение с разных узлов пишет в один и тот же
файл, то и оно должно иметь свои средства блокировки.
-
- Junior member
- Сообщения: 10
- Зарегистрирован: 06 янв 2004, 02:36
Чегой-то форум глючить. Вообщем так - кэширование можно
обойти, включив direct i/o, вроде как ext2 поддерживает, jfs - точно.
Но проблема остается, узлы не будут знать, что они пишут на
разделяемый диск, каждая файловая система будет думать, что она
его использует монопольно. Это дело решается
с помощью cfs (кстати, может и есть free - IBM GPFS или lustre
http://www.clusterfs.com/lustre.html).
Или же само приложение должно разбираться, например,
ораловский RAC могет, а вот web-server - вряд ли.
обойти, включив direct i/o, вроде как ext2 поддерживает, jfs - точно.
Но проблема остается, узлы не будут знать, что они пишут на
разделяемый диск, каждая файловая система будет думать, что она
его использует монопольно. Это дело решается
с помощью cfs (кстати, может и есть free - IBM GPFS или lustre
http://www.clusterfs.com/lustre.html).
Или же само приложение должно разбираться, например,
ораловский RAC могет, а вот web-server - вряд ли.
-
- Junior member
- Сообщения: 10
- Зарегистрирован: 06 янв 2004, 02:36
Угу, глюк я тоже поймал 
Ну в режиме RO я думаю любую fs можно подмонтировать на любое кол-во серваков.
Lustre видел, какая то она староватая.
GPFS тоже нарыл последнюю, в ней черт ногу сломит
А вот про Красную шапку загадочно как то все
Они же говорят не втыкайте партишен в /etc/fstab, монтировкой будет заниматся специальный софт.
Видимо как раз через свой mount они и добиваются нормальную работу с нодами.
На досуге им напишу и все узнаем
А так уже списался с sistina и polyserve, первые предлагают все решить на 8 серверов за 16-24к, а вторые берут примерно 3.5 за процессор.

Ну в режиме RO я думаю любую fs можно подмонтировать на любое кол-во серваков.
Lustre видел, какая то она староватая.
GPFS тоже нарыл последнюю, в ней черт ногу сломит

А вот про Красную шапку загадочно как то все

Они же говорят не втыкайте партишен в /etc/fstab, монтировкой будет заниматся специальный софт.
Видимо как раз через свой mount они и добиваются нормальную работу с нодами.
На досуге им напишу и все узнаем

А так уже списался с sistina и polyserve, первые предлагают все решить на 8 серверов за 16-24к, а вторые берут примерно 3.5 за процессор.
Странно, я думал, что lustre - это последний писк.
Кстати, красная шапка купила систину. а где gpfs нарыл,
ссылку можно?
А насчет того, что красная шапка пишет о монтировании, так все
правильно - монтированием занимается кластерный софт, так
как файловая система является для него ресурсом и он
ее "перекидывает" с упавшего узла на живой, в случае чего.
Похоже, что мы толкуем про разные вещи - я, например,
про вариант active-active.
Кстати, красная шапка купила систину. а где gpfs нарыл,
ссылку можно?
А насчет того, что красная шапка пишет о монтировании, так все
правильно - монтированием занимается кластерный софт, так
как файловая система является для него ресурсом и он
ее "перекидывает" с упавшего узла на живой, в случае чего.
Похоже, что мы толкуем про разные вещи - я, например,
про вариант active-active.
- CyberDrake
- free-lance moderator
- Сообщения: 338
- Зарегистрирован: 23 авг 2002, 10:39
- Откуда: Санкт-Петербург
- Контактная информация:
Я бы посмотрел на Tivoli SANergy
http://www-306.ibm.com/software/tivoli/ ... s/sanergy/
Работает он следующим образом:
Есть мастер, который видит дисковую систему локально и хранит у себя таблицу секторов, в которой записано, к каким секторам в настоящий момент идет обращение. Мастер, может быть как отдельным сервером, так и кластером. Остальные подключают диск, как сетевой, принадлежащий мастеру. Но по сети идут только запросы на выполнении операций чтения/записи, а сами операции идут по SCSI/FC.
http://www-306.ibm.com/software/tivoli/ ... s/sanergy/
Работает он следующим образом:
Есть мастер, который видит дисковую систему локально и хранит у себя таблицу секторов, в которой записано, к каким секторам в настоящий момент идет обращение. Мастер, может быть как отдельным сервером, так и кластером. Остальные подключают диск, как сетевой, принадлежащий мастеру. Но по сети идут только запросы на выполнении операций чтения/записи, а сами операции идут по SCSI/FC.
Последний раз редактировалось CyberDrake 09 янв 2004, 13:44, всего редактировалось 1 раз.
-
- Junior member
- Сообщения: 10
- Зарегистрирован: 06 янв 2004, 02:36
Так может из-за систины и выходит нормальный кластер в шапке.
GPFS на ibm берешь
говоришь нужент тебе его апдейт и забираешь, вместе с апдейтом идут сырцы mmfs, кстати все это называется MMFS 
А насчет шапки, а почему бы не монтировать файловую систему через псевдодевайс
Ну как например это делается для монтирования iso имиджей.
А говорим мы про одно и тоже
GPFS на ibm берешь


А насчет шапки, а почему бы не монтировать файловую систему через псевдодевайс

А говорим мы про одно и тоже

-
- Junior member
- Сообщения: 10
- Зарегистрирован: 06 янв 2004, 02:36
И сколько стоит это чудо?CyberDrake писал(а):Я бы посмотрел на Tivoli SANergy
http://www-306.ibm.com/software/tivoli/ ... s/sanergy/
- CyberDrake
- free-lance moderator
- Сообщения: 338
- Зарегистрирован: 23 авг 2002, 10:39
- Откуда: Санкт-Петербург
- Контактная информация:
-
- Junior member
- Сообщения: 10
- Зарегистрирован: 06 янв 2004, 02:36
- CyberDrake
- free-lance moderator
- Сообщения: 338
- Зарегистрирован: 23 авг 2002, 10:39
- Откуда: Санкт-Петербург
- Контактная информация:
Кто сейчас на конференции
Сейчас этот форум просматривают: нет зарегистрированных пользователей и 1 гость