Посоветуйте SAN

Технологии постороения кластеров (вычислительных и отказоустойчивых), настройка терминал серверов,
SAN , NAS, FibreChannel, Infiniband

Модераторы: Trinity admin`s, Free-lance moderator`s

Ответить
AntonTo
Junior member
Сообщения: 4
Зарегистрирован: 18 янв 2007, 12:05
Откуда: Москва

Посоветуйте SAN

Сообщение AntonTo » 18 янв 2007, 12:21

Понимаю что дорого.
Нужно: Центральное хранилище на 30-60TB. Одновременный доступ 5-7 клиентов/ Каждый на гарантированной скорости 320 MB/sec по чтению, из них 2-3 клиента одновременно с чтением, пишут на скорости 320 MB/sec.
Сейчас рассматриваем решение от SGI:
http://www.sgi.com/products/storage/tech/6700.html
Похожие (но более медленные) решения есть у DVS
http://www.dvs.de/english/products/vide ... s/san.html

Аватара пользователя
exLH
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 5061
Зарегистрирован: 11 фев 2004, 15:49
Откуда: Москва
Контактная информация:

Сообщение exLH » 18 янв 2007, 12:30

Сейчас рассматриваем решение от SGI:
Я думаю, что при таких тербованиях одной такой не обойдетесь.

AntonTo
Junior member
Сообщения: 4
Зарегистрирован: 18 янв 2007, 12:05
Откуда: Москва

Сообщение AntonTo » 18 янв 2007, 13:39

Там заявлена пропускная способность 3GB/sec - теоритически это 10 клиентов по 300MB/sec. На практике видимо, 8 максимум.... Но нам может хватить. Может есть еще конторы, создающие подобное?

Аватара пользователя
exLH
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 5061
Зарегистрирован: 11 фев 2004, 15:49
Откуда: Москва
Контактная информация:

Сообщение exLH » 18 янв 2007, 13:53

Надо иметь в виду, что пиковая пропускная способность достигается на определенном числе дисков, какое было число дисков при этом измерении - не указано. Этот вопрос желательно уточнить в SGI. Равно как и то, каким образом создавалась нагрузка для получения результата 2.5+ГБ/сек  (вполне возможно, что на задаче, где 10 пользователей в соотношении 7:3 читают и пишут, может быть совсем другой результат).
Подобные задачи в Windows средах решаются например с использованием связки из нескольких IBM DS4800 + MelioFS + LaScala.
Для Linux или AIX можно использовать IBM DS4800 + SAN File System или IBM DS4800 + IBM GPFS.

Svi
member
Сообщения: 30
Зарегистрирован: 19 окт 2006, 13:08
Откуда: MOSCOW

Сообщение Svi » 18 янв 2007, 14:50

совершенно согласен ... для таких требований критично кол-во дисков,характер нагрузки и под чем всё это дело работает...
и много всяких мелочей,настроек и т.д.
делали подобное на EVA4000(16 дисков 15k) под SFS на запись получалось 10 клиентов по 400 Мб/с..

Аватара пользователя
exLH
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 5061
Зарегистрирован: 11 фев 2004, 15:49
Откуда: Москва
Контактная информация:

Сообщение exLH » 18 янв 2007, 15:00

Svi
на запись получалось 10 клиентов по 400 Мб/с
Есть вопросы и большие сомнения: Вы говорите разумеется про Мбиты в секунду? Иначе у Вас даже пропускной способности евы будет мало до хостов. Но даже и в таком случае, пропускной способности бэкэнда не хватает. Так что Вы что-то не то намерили или не те результаты приводите. Или ева была не одна, а штук 5 :)

AntonTo
Junior member
Сообщения: 4
Зарегистрирован: 18 янв 2007, 12:05
Откуда: Москва

Сообщение AntonTo » 18 янв 2007, 15:11

У нас к сожалению это именно мегаБАЙТЫ :(

но решение от SGI тянет:
The SGI InfiniteStorage 6700 with its 3GB per second data
transfer rate,

Эта штука может выдавать 2 потока 4K видео (1 поток 4К = 1300 mbyte/sec).

Там ограничения вроде, такая скорость при максимальном количестве дисков:
Up to 1120 total drives, 1000 data drives

Аватара пользователя
exLH
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 5061
Зарегистрирован: 11 фев 2004, 15:49
Откуда: Москва
Контактная информация:

Сообщение exLH » 18 янв 2007, 15:18

AntonTo
Последний комментарий был не к Вам :)
То, что у Вас мегабайты это понятно.
Вот в том то все и дело, что, во-первых, два потока это совсем не 10, а во-вторых, в ряде случаев удобнее (как с точки зрения цены, так и сточки зрения производительности) не одну систему с 1000 дисков, а 3-4-... с 60-ю. Основное преимущество - можно масштабировать дальше.

Аватара пользователя
gs
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 16650
Зарегистрирован: 23 авг 2002, 17:34
Откуда: Москва
Контактная информация:

Сообщение gs » 18 янв 2007, 15:21

На самом деле надо бы ценники посчитать. Вполне вероятно, что эта хрень силиконовская в конфигурации, выдающей такую скорость, стоит поболе лимона. Может пачка 4800 с GPFS дешевле выйдет и масштабироваться будет в любую сторону.

AntonTo
Junior member
Сообщения: 4
Зарегистрирован: 18 янв 2007, 12:05
Откуда: Москва

Сообщение AntonTo » 18 янв 2007, 16:54

gs писал(а):Может пачка 4800 с GPFS дешевле выйдет и масштабироваться будет в любую сторону.
Что такое 4800, где почитать поподробнее и какую скорость она может дать?

Аватара пользователя
exLH
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 5061
Зарегистрирован: 11 фев 2004, 15:49
Откуда: Москва
Контактная информация:

Сообщение exLH » 18 янв 2007, 17:19

IBM DS4800
http://www-03.ibm.com/servers/storage/d ... index.html
Как сами по себе, так и связки из нескольких таких систем успешно применяются для различных видео-нужд.

Пиковые данные:
чтение с дисков 1600МБ/c
запись на диски 1300МБ/c
На реальных задачах естесственно будет поменьше, но и предлагается несколько таких систем использовать.

Svi
member
Сообщения: 30
Зарегистрирован: 19 окт 2006, 13:08
Откуда: MOSCOW

Сообщение Svi » 18 янв 2007, 18:00

exLH писал(а):Svi
на запись получалось 10 клиентов по 400 Мб/с
Есть вопросы и большие сомнения: Вы говорите разумеется про Мбиты в секунду? Иначе у Вас даже пропускной способности евы будет мало до хостов. Но даже и в таком случае, пропускной способности бэкэнда не хватает. Так что Вы что-то не то намерили или не те результаты приводите. Или ева была не одна, а штук 5 :)
имел ввиду именно 400 Мегабайт в секунду, только в этом конкретном решении дело не в EVA , а в SFS которая бешенных денег стоит и подразумевает под собой ещё 4 или больше сервера :)
они как раз занимаются распределением нагрузки ..
да и чесно говоря 400 это цифра субъективная , т.к. iozone ioscan bonney и тд и тп циферки разные дают и не очень понятные.

Аватара пользователя
exLH
Сотрудник Тринити
Сотрудник Тринити
Сообщения: 5061
Зарегистрирован: 11 фев 2004, 15:49
Откуда: Москва
Контактная информация:

Сообщение exLH » 18 янв 2007, 18:52

svi
имел ввиду именно 400 Мегабайт в секунду
Ну тогда если Вы ещё скажете, что эти 400МБ/сек были на каждого клиента, то появятся серьёзные сомнения относительно объективности субъективной оценки. :)
Ну откуда, скажите на милость, одна Ева сможет дать вашему SFS-у такие потоки? Я вот смотрю хотя бы в даташит этой SFS -так там для 600МБ/сек чтения нужно 4штуки SFS20 повесить. А тут 10x400...

LPV
Advanced member
Сообщения: 58
Зарегистрирован: 31 янв 2003, 05:15
Контактная информация:

Сообщение LPV » 16 мар 2007, 04:25

svi
я тоже очень сильно сомневаюсь в 10 потоках по 400 Мб на ЕВУ
сам являюсь обладателем сего девайса с 28 дисками 146 на 15 К
так вот ЕВА на 2-х фабриках это 4  2-х Gb шнурка это никак не 4 гигабайта в секунду. (про то что EVA 4Gb ничего сказано не было)
с одного хоста (2 HBA балансировка нагрузки) при записи на один LUN (VDISK - прошу учесть что пишет на него только контроллер "хозяин луна") в 3 потока (копировал файлы размером от 8 гигов - что во много раз больше КЭШа ЕВЫ) получил в каждом потоке около 80-85 мегов в секунду. В момент тестирования других запросов к ЕВЕ небыло.
При тестировании IOmetrom на большом количестве потоков выжал максимум 320 мегабайт в секунду.

хотелось бы услышать комментарии ...
либо я гдето ступил
либо вы, как то хитро тестили свой агрегат

Svi
member
Сообщения: 30
Зарегистрирован: 19 окт 2006, 13:08
Откуда: MOSCOW

Сообщение Svi » 16 мар 2007, 09:31

LPV писал(а):svi
я тоже очень сильно сомневаюсь в 10 потоках по 400 Мб на ЕВУ
сам являюсь обладателем сего девайса с 28 дисками 146 на 15 К
так вот ЕВА на 2-х фабриках это 4  2-х Gb шнурка это никак не 4 гигабайта в секунду. (про то что EVA 4Gb ничего сказано не было)
с одного хоста (2 HBA балансировка нагрузки) при записи на один LUN (VDISK - прошу учесть что пишет на него только контроллер "хозяин луна") в 3 потока (копировал файлы размером от 8 гигов - что во много раз больше КЭШа ЕВЫ) получил в каждом потоке около 80-85 мегов в секунду. В момент тестирования других запросов к ЕВЕ небыло.
При тестировании IOmetrom на большом количестве потоков выжал максимум 320 мегабайт в секунду.

хотелось бы услышать комментарии ...


либо я гдето ступил
либо вы, как то хитро тестили свой агрегат
Комментарии...

Извините, что запутал общественность,сам запутался. Реальная производительность была 400 мегабайт в секунду,а никак не 4 гига.
в спеке ЕВЫ Maximum throughput (MB/s)   335  ,
так оно на самом деле и есть, а полученные  400Мб/с думаю связанны с SFS (дополнительные кэши серверов либо ещё что-то)

Ответить

Вернуться в «Кластеры, Аппаратная часть»

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и 4 гостя