Э, а что это?Bormoto писал(а):Возможно, коллега очень уповает на возможности Remus'a.

Модераторы: Trinity admin`s, Free-lance moderator`s
Э, а что это?Bormoto писал(а):Возможно, коллега очень уповает на возможности Remus'a.
Это HA для vm от Xen (http://wiki.xen.org/xenwiki/Remus). Работает примерно аналогично HA от VMware.Stranger03 писал(а):Э, а что это?Bormoto писал(а):Возможно, коллега очень уповает на возможности Remus'a.
Stranger03 писал(а):Что в вашем понимании высокая доступность?
Обеспечение непрерывного предоставления каких-либо услуг с точки зрения пользователя этих услуг. И по моему мнению две площадки могут и не обеспечить этого, если, например, доступ к этим площадкам будет осуществляться по одному каналу. Упования на Remus тоже нет. Как и нет задачи "добиться отсутствия любых перерывов в работе". Если сервер "упал", то надо, чтобы он поднялся сразу, а не через несколько часов или дней. Т.е. падения допускаются, а простои нет. И это требование распространяется на предоставление доступа к 1С, общим файлам, почте и Интернету. Это с одной стороны. С другой, сейчас даже не рассматривается вопрос о нормальном дублировании канала в Интернет через другого провайдера (через сотовую для нескольких человек при аварии он есть). Можно говорить о высокой доступности? Глобально - нет. Значит не надо дублировать шлюзы, обеспечивая высокую доступность хотя бы на локальном уровне? Я думаю, что надо. И говорить о высокой доступности сервиса, я считаю, можно, с оговорками, но можно. Надеюсь, что я ответил на Ваш вопрос. Что касается стартапа, то у меня нет уверености, что на этом все и не закончится. И даже самые современные системы ломаются, и по моему опыту тенденция совсем не в радостную сторону. И представьте, мы доказываем сейчас, что покупка каких-то там железок сильно улучшит нашу жисть, 1С будет летать, пользователи будут пищать, а бизнес процветать. А через полгода железка откажет. И ремонт фирма IBM проведет просто прям в рекордные сроки. Но знаете, что мне скажут в компании? "Мы потратили за этот год на твои железки в десять раз больше, чем за предыдущие десять лет, и в результате мы имеем время простоя тоже в десять раз большее, чем за предыдущие десять лет". Я думаю, что после этого мне дадут деньги если только на выходное пособие.Bormoto писал(а):Здесь "высокая доступность" действительно звучит как-то непонятно. Возможно, коллега очень уповает на возможности Remus'a.
Верю, если бы не верил, то не писал бы здесь. Но мне нужны знания. Поделитесь?Stranger03 писал(а):Из моего опыта, поверьте, очень богатого.
На восстановление 20 ГБ образа системы Акронис у нас тратил порядка 15 минут. Агенты под Windows, Linux, SQL. Возможность есть, в том числе используя механизм теневого копирования Windows. Но предполагаю использовать Акронис только для ОС. Для SQL пользоваться резервными копиями самой SQL. Это неправильно?Stranger03 писал(а):Сколько времени у вас займет бекап 200ГБ по сети? А сколько времени у вас займет восстановление? С Акронисом не шибко знаком. Он имеет агенты под Вин, под базы данных? Имеет возможность делать консистентные бекапы?
Stranger03 писал(а):При прочих равных условиях ИБМ будет не дороже Инфортренда, а о разных фичах можно читать тут: http://blog.trinitygroup.ru
Не могу с Вами согласиться. IBM - заметно дороже получается, одна только лицензия на удаленную репликацию дороже на 70 тысяч рублей. Стоимость полок - здесь впереди Infortrend, но IBM отыгрывается на дисках.gs писал(а):А вот сторадж лучше двухконтроллерный ИБМ с сервис-паком - его быстро починят, в отличие от инфортренда, на который фирменный сервис отсутствует как класс.
Для серверов - использование виртуальных машин с общим хранилищем, в режиме HA. Т.е. возможность миграции ВМ с одного сервера XEN на другой в случае необходимости или падения сервера. Для СХД - использование или синхронной удаленной репликации средсвами самих полок, или mdadm для создания RAID1 на серверах.Stranger03 писал(а):Позвольте спросить, какими средствами вы будете это обеспечивать? Вопрос про программные средства.
Я не писал, что денег нет, я писал, что 50-60 тыс. - это большие деньги. Это во-первых. Во-вторых, я хочу дублировать не самую надежную и дорогую часть, а самую важную и труднозаменимую. Впрочем, если Вы прочтете мою конфигурацию, то увидите, что дублировать я хотел бы все. А от логических и пользовательских ошибок есть резервные копии.gs писал(а):У Вас какой-то очень оригинальный подход. Денег нет, но Вы хотите дублировать самую надежную и дорогую часть системы.
Дублирование стораджей конечно вещь полезная, но обычно это делается не от хорошей жизни (когда мало отказоустойчивости одной дублированной железяки) и с очень серьезными обоснованиями.
И сколько будет стоить этот сервер? И что за мощная дисковая, которая обеспечит нормальную работу сотне людей? И зачем тогда отдельная полка? Дешевле, да. Но я действительно не понимаю, в чем это решение эффективнее?gs писал(а):А для подстраховки поставьте рядом просто аварийный сервер с достаточно мощной дисковой и лейте туда шиппинг.
Возможно, только из всей переписки мне кажется, что вы не хотите слушать, а пытаетесь как-то убедить себя в правильности вашего решения. Я завтра в отпуске в деревне, буду доступен только после праздников. Успевайте.Dr. Grue писал(а):Верю, если бы не верил, то не писал бы здесь. Но мне нужны знания. Поделитесь?
Уже писал, выше, минимально на 200 рыл 7-мь серверов под продуктив, внешняя СХД с ССД дисками под базу, сервер резервного копирования, подключенный к СХД для бекапов, СХД с вольюм-флеш копи.1. Какую схему взаимодействия клиент-сервер выбрать и почему? Терминал, тонкий, толстый или веб-клиент?
это можно понять только через счетчики. сейчас можно тыкать пальцем в небо. я бы для стартапа начал с 24-х винтов САС.2. Какое количество дисков приемлемо для работы с УПП 150 человек, при загрузке в день 500-100 документов в несколько строк?
не корректный вопрос. ФЦ и САС со Скулем никак не пересекаются и не работают друг в другом.3. Насколько серьезно сказывается использование FC вместо SAS на работе SQL?
работает, проверяли, хорошо, пусть так.На восстановление 20 ГБ образа системы Акронис у нас тратил порядка 15 минут. Агенты под Windows, Linux, SQL. Возможность есть, в том числе используя механизм теневого копирования Windows. Но предполагаю использовать Акронис только для ОС. Для SQL пользоваться резервными копиями самой SQL. Это неправильно?
срок ремонта инфортренда от месяца до 3-х. У ИБМ-а при наличии сервиспака 1-2 недели.Отсутствие сервиса - это как? У них нет мастерских? Они не обеспечивают гарантийное и послегарантийное обслуживание? Вы же их продаете.
честно лень писать. основное цена + сервис. чуть-чуть дороже. но из-за сервиса меньше головняка. в остальном примерно одинаково.Вообще, хотелось бы понять разницу между полками этих фирм. И желательно развернуто.
Тогда не говорите о высокой достпности. Это обычный актив-пассив кластер.Для серверов - использование виртуальных машин с общим хранилищем, в режиме HA. Т.е. возможность миграции ВМ с одного сервера XEN на другой в случае необходимости или падения сервера. Для СХД - использование или синхронной удаленной репликации средсвами самих полок, или mdadm для создания RAID1 на серверах.
У вас бюджет 50-60 тысяч вызывает затруднения, он большой для вас. Остальное обычная демагогия. Вы на мой взгляд пытаетесь себя убедить в правильности ваших слов. Но поверьте мне, вы не правы.Я не писал, что денег нет, я писал, что 50-60 тыс. - это большие деньги. Это во-первых. Во-вторых, я хочу дублировать не самую надежную и дорогую часть, а самую важную и труднозаменимую. Впрочем, если Вы прочтете мою конфигурацию, то увидите, что дублировать я хотел бы все. А от логических и пользовательских ошибок есть резервные копии.
gs писал(а):Знаете, Вам похоже надо поспорить или чтобы кто-то одобрил Ваше уже состоявшееся решение.
Тогда к чему все это обсуждение?
А стораджей мы продаем много, потому и советы...
Может Вы слышали, что именно в споре рождается истина? И что мне надо, написано, среди прочего, в моем первом сообщении: "Можете покритиковать решение, предложить что-то свое?". Т.е.:Stranger03 писал(а):мне кажется, что вы не хотите слушать, а пытаетесь как-то убедить себя в правильности вашего решения.
1) 2 под БД, 2 под 1С и 3 под терминал - я правильно понял? Если да, то зачем 2 под БД? И я читал, что кластер в 1С довольно глючная вещь, прокомментируете?Stranger03 писал(а):7-мь серверов под продуктив, внешняя СХД с ССД дисками под базу, сервер резервного копирования, подключенный к СХД для бекапов, СХД с вольюм-флеш копи.
я бы для стартапа начал с 24-х винтов САС.
Попробую задать его по-другому:Stranger03 писал(а):не корректный вопрос. ФЦ и САС со Скулем никак не пересекаются и не работают друг в другом.Dr.Grue писал(а):3. Насколько серьезно сказывается использование FC вместо SAS на работе SQL?
Сервиспак IBM входит в предложенную вами конфигурацию, я имею ввиду полученный от вас счет? Если нет, то сколько это стоит? И при отсутствии этого пакета срок ремонта у IBM назвать можете? И хотелось бы повторить вопрос: "При выходе из строя самой полки, каким способом обеспечить работу сотрудников с 1С в течении 1-2 недель? Что это за дополнительный сервер, про который писал [Bold]gs[/Bold], его характеристики и стоимость?"Stranger03 писал(а):срок ремонта инфортренда от месяца до 3-х. У ИБМ-а при наличии сервиспака 1-2 недели.
Хорошо, тогда пусть говорят другие.Stranger03 писал(а):Тогда не говорите о высокой достпности. Это обычный актив-пассив кластер.
Не понял логического перехода от "большой" к "вызывающий затруднения".Stranger03 писал(а):У вас бюджет 50-60 тысяч вызывает затруднения, он большой для вас. Остальное обычная демагогия.
Тогда можно раскладку семи серверов по сервисам?Dima-Try писал(а):"1) 2 под БД, 2 под 1С и 3 под терминал - я правильно понял? Если да, то зачем 2 под БД? И я читал, что кластер в 1С довольно глючная вещь, прокомментируете?"
Кластер не 1С а кластер MS SQL БД, работает без глюков (куча внедрений).
Dima-Try писал(а):Для данного варианта Вам более подойдет массив DS3700 с SSD кешем
Я предлагаю не обсуждать сейчас систему резервирования, так как она уже у нас существует, и вполне удовлетворяет нашим требованиям. Для чего еще кроме хранения резервных копий нужна вторая полка в Вашей схеме?Dima-Try писал(а):Логично будет полку с 24 дисками (2 диска SSD+22 диска 10К САС) под продуктив. И полку с 12 дисками САТА (в том числе бекап).
НО..... если уж серьезно подходить к СРКиВД - надо бы еще ленточку к серверу системы РКиВД ))) Опишите что за ПО РКиВД у вас и какое оборудование - подумаем как ее можно использовать... может у вас уже все есть)))
Они не ломаются? Мой опыт работы с IBM говорит о другом.Dima-Try писал(а):Выход из строя СХД...... ??? Рассматривайте две СХД и MetroMirror синхронизацию между копи и примари пулом, кластер MS SQL умеет с этим работать. Но лично я бы вам советовал купить сервис-пак Fix time 8/24 часа на СХД.
Это первый голос за FC. Ширина канала, как я понял, для SAS - 24Гб/с или 48Гб/с для (СХД)-(HBA контроллер). Про проблемы с надежностью SAS слышу впервые. И читал, что у FC большая латентность, что не очень хорошо для БД. Это неверная информация?Dima-Try писал(а):FC однозначно! как с точки зрения производительности (8Гб/с FC против 6Гб/с SAS) так и с точки зрения надежности протокола (смотрите Fiber Chanel)
Время на восстановление сервиса - одна-две минуты, потеря данных по вине оборудования - это ЧП.Dima-Try писал(а):Нам с вами гораздо проще размышлять о RPO/RTO параметрах, вы рассматриваете решения которые будут удовлетворять данным параметрам. И соответственно понимать стоимость минимизации рисков по соответствию данных параметрах. И ваше уже руководство будет устранять эти риски (выбирать решение удовлетворяющее данным параметрам), или минимизировать (изменять RPO/RTO и решение) или принимать данные риски (ничего не делать но знать).
- кластер серверов баз данных, 2-а сервераDr. Grue писал(а):Тогда можно раскладку семи серверов по сервисам?
Не дорого, можно просчитать 24-х часовой фикстайм. В пределах от 2-х до 8-ми тысяч $ в зависимости от пакетов.И сколько стоит такой сервис-пак?
Это не верная информация. Если быть кратким, с FC проще масштабироваться, пропускной способности канала хватит за глаза. Вам не надо столько ИОПсов, чтобы загрузить файберный канал.Это первый голос за FC. Ширина канала, как я понял, для SAS - 24Гб/с или 48Гб/с для (СХД)-(HBA контроллер). Про проблемы с надежностью SAS слышу впервые. И читал, что у FC большая латентность, что не очень хорошо для БД. Это неверная информация?
В этом случае очень примерно:Время на восстановление сервиса - одна-две минуты, потеря данных по вине оборудования - это ЧП.
Посчитайте, если не сложно.Stranger03 писал(а):Dr. Grue
Считать или ну его нафик?
Отпишите пож-та Жене Королевой, какую компанию вы представляете. Без этой информации мы не сможем с вами говорить о спец.ценах. А в данном случае можно будет говорить о них.Dr. Grue писал(а):Посчитайте, если не сложно.
Напишем в профильную почту.Demonobond писал(а):тема не потеряла актуальность. Клиент просит предложение по железу для абсолютно такой же задачи что в этой теме. Можно мне выслать на мейл в профиле актуальное предложение по железу - два варианта: с использованием серверов терминалов и без? Если считаете, что без серверов терминалов не имеет смысла, то его можно не включать.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и 6 гостей