Оптимальная конфигурация RAID-массива сервера 1С (под Centos 6.0)

1. audion 19.06.12 22:28 Сейчас в теме
Уважаемые коллеги, вот еще один вопрос возник, хотелось бы узнать мнение специалистов.

Исходные: есть "недо-сервер" на хорошей десктопной материнке, ASUS P8P67-Pro, камень Core i5, 32 ГБ ОЗУ. В настоящий момент работает 1 RAID-контроллер Intel RS2BL080 с BBU. К нему подключены массивы:
- RAID 1 2*WD VelociRaptor 300 GB - система (с соответствующей разбивкой);
- RAID 1 2*WD Velociraptor 600 GB - WAL
- RAID 10 4*WD RE4 FBYX - /var/lib/pgsql
Диски SATA.
Все 8 хвостов заняты.
Вопрос, собственно, вот в чем:
во-первых, насколько такая конфигурация адекватна (понимаю, лучше SAS, да в корзины, да RAID 10 по 8 дисков, но есть некоторые финансовые ограничения);
во-вторых, есть ли смысл купить еще один контроллер типа Intel RS2BL040 и вынести, скажем, WAL или систему, или и то, и то на него? Дело в том, что пока у нас около 50 баз, не очень больших. Но в перспективе их будет более 100, а кол-во пользователей - порядка 50. Однозначно придется масштабировать дисковую систему.
Порты на материнке практически не используются - только пара резервных дисков с бэкапами системы и баз.
И еще: может, /tmp/1c перенести на отдельный быстрый винт на материночный порт и хоть немного разгрузить системные диски?
Как Вы понимаете, надежность во всем этом хозяйстве на первом месте.
Или есть еще какие-то более рациональные способы организации дисковой системы?

Заранее всем большое спасибо!
Ответы
Подписаться на ответы Инфостарт бот Сортировка: Древо развёрнутое
Свернуть все
14. wkon 14 21.06.12 19:17 Сейчас в теме
(1) audion,
[quote]И еще: может, /tmp/1c перенести на отдельный быстрый винт на материночный порт и хоть немного разгрузить системные диски?[/quote]

Я бы смонтировал /tmp как tmpfs, т.е. отобразил на виртуальную память, а swap вынес на RAID10. Должно мочь.
Тут как раз и третье ядро приготся :)
17. audion 22.06.12 20:29 Сейчас в теме
(14) wkon, спасибо, как вариант можно попробовать.
(15) asved.ru, без хамства, ладно?
18. asved.ru 36 22.06.12 20:39 Сейчас в теме
(17) audion, извините. просто задолбали "заказчики", желающие получить функционал энтерпрайза за деньги SMB/SOHO.
25. alex_sh2008 5 02.03.16 09:18 Сейчас в теме
(1) audion, Не важно какие контроллеры вы купите, одно только упоминание о десктопной маме говорит за себя, хорошую рабочую станцию вы можете получить но сервер не получите.
26. audion 09.03.16 23:56 Сейчас в теме
(25) посту из (0) уже 4 года, и вопрос уже не актуален, да и речь больше шла о том, надо ли для pg_xlog отдельный контроллер (не надо). Для сравнения разных решений и обкатки вполне было на тот момент достаточно десктопной материнки, в продакшен все пошло на серверной. И с тех пор уже стоооолько систем собрано, настроено, отгружено, и, главное, работает :-)
2. VasMart 20.06.12 09:42 Сейчас в теме
около 50 баз, не очень больших. Но в перспективе их будет более 100, а кол-во пользователей - порядка 50.

Как Вы понимаете, надежность во всем этом хозяйстве на первом месте.

но есть некоторые финансовые ограничения

ASUS P8P67-Pro, камень Core i5, 32 ГБ ОЗУ


Какие-то все словосочетания несочетаемые.
Каков бюджет? Каково время работы сервера? Каков максимальный простой? Какого рода нагрузка юзверями планируется? Если уж в самоделкина играть, то давайте исходные поточнее.
6. audion 20.06.12 18:22 Сейчас в теме
(2) VasMart, что такое RAID, плюсы и минусы уровней - это я в курсе.
RAID 5 для постгре не рекомендуют, ни для WAL, ни для баз. Смита искурил вдоль и поперек, и не только его.
RAID1 под систему - мера вынужденная, поверьте, был печальный опыт вылета системных дисков. Восстановление из образа занимало довольно долго, да и потом куча телодвижений - образ был не очень свежий, и как на зло кое-что изменилось. Ну да дело не в этом. Потери в скорости RAID1 по сравнению с одиночным (для системы) не очень существенны, интенсивная запись идет именно в раздел /tmp/1c, потому и думаю его вынести на отдельный шпиндель.
BTW, не играть в самоделкина - гут, но решение на серверных компонентах обошлось бы минимум в 200 т.р., у меня было ТЗ уложиться в 90 по железу.

С виртуальными серверами - заманчиво. Но пока что это слишком напряжно. Изначально была мысль сделать два аппаратных сервера - один под 1С, другой - СВМ (Proxmox) с энным кол-вом виртуалок с СУБД. Но организация дисковой системы в этом случае мне лично представляется излишне усложненной, плюс потеря в скорости из-за LVM. Нет, пока надо ограничиться одним чисто аппаратным сервером. В перспективе будет кластер серверов, но в очень отдаленной.
9. audion 20.06.12 19:07 Сейчас в теме
2 ALL, коллеги, я, наверное, слишком расплывчато сформулировал проблему, попробую поконкретнее.
В текущей конфигурации все данные крутятся внутри одного RAID-контроллера. Т.е., в конечном счете, весь поток гоняется по одной шине PCI-E x16. Шин на материнке 2. Если я поставлю два контроллера, один под базы, другой - под WAL и систему, предположим, для простоты, при прочих равных, т.е. не меняя кол-во дисков и конфигурацию массивов, - даст ли это заметное повышение производительности дисковой системы? Иными словами, разнесение БД и системы + WAL по разным шинам и разным контроллерам - приводит ли это к существенному росту производительности?

(2) VasMart,
Каков бюджет?

Пока что уложился в 90 тыс., максимум до конца года - еще порядка 20 т.р. Как раз контроллер и пара дисков.

Каково время работы сервера?

Круглосуточно, 24*7, время для обслуживания можно согласовать в период с 22 до 6. В рабочее время - ни-ни.

Каков максимальный простой?

Скажем так, в рабочее время - не более часа в месяц, документально не фиксируется, но просьба начальства.
У нас не режимный объект, но когда по-человечески просят - чтобы система нормально работала, хочется именно по-человечески все и сделать. А нормально - значит, чтобы бухи и прочие не сидели без дела из-за моих косяков.

Какого рода нагрузка юзверями планируется?

В настоящий момент - 20 лицензий, свободных почти не бывает, обычная бухгалтерская работа с типовыми или слегка измененными базами нормальных предприятий, все базы суммарно занимают на диске около 50 ГБ.
К концу года планируется дозакупка лицензий до 50 и кол-во баз возрастет примерно вдвое. В таком виде все это, вроде как, стабилизируется на 2013-й год, далее Х.З.

В текущем виде к серверу претензий нет. При удвоенном кол-ве подключений и кол-ве баз - могут быть. Вот и думаю...

В любом случае, спасибо, помогли собраться с мыслями :-)
10. wkon 14 21.06.12 12:38 Сейчас в теме
(9) audion,
Производительность шины PCI-E x16 измеряется гигабайтами в секунду,
сильно удивлюсь, если она у Вас загружена более 5%.
Это точно не узкое место.

Выносить WAL из под контролера имеет смысл, чтобы организовать RAID10 на восьми дисках для всего остального, включая swap.

Покупать второй Intel RS2BL080 под RAID1/WAL - ИМХО пустая трата денег - кэш на запись там не нужен, так же как и аппаратный XOR.
Просто прицепите два диска к свободным портам на материнке и сделайте программный RAID1.

... тем более, что после расширения все равно придется покупать новый сервер ;)
12. audion 21.06.12 17:02 Сейчас в теме
(10) wkon, ОК, успокоили, спасибо!
Насчет нового сервера - однозначно придется. Тут же видите, какая история - каша из топора: изначально говорилось, типа, ладно, вот тебе деньги на диски, на остальное покупай десктопную систему без наворотов, ставь, пробуй, как оно под Lin+Postgre, а если вообще заработает, тогда и будем модернизировать. Серверная платформа изначально обошлась бы сильно дороже. Вот так и работали - памяти не хватает - докупили, RAID понадобился - организовали. Весь процесс внедрежа занял почти три месяца - с октября по декабрь. Зато с НГ - все на восьмерке.
Пока решили действующий сервер (в будущем) оставить чисто под 1С, а еще один, уже на серверной комплектухе, под СУБД.

(11) wkon, SSD (нормальный) стоит куда дороже 20 т.р. Например, у Seagate серии Pulsar, Pulsar XT. А к "ширпотребу" доверия нет пока. ИМХО рановато, вот лет через пару - мэйби, а пока что не хочется рисковать. Я лучше за эту цену 4 раптора возьму, в 10-м рэйде.

Удачи! Спасибо!
3. wkon 14 20.06.12 13:40 Сейчас в теме
Ну не знаю, мне кажется, что с аппаратным райдом и кэшем на запись 512M лучше все запихать в один RAID10 и не парится.
Как раз и получите RAID10 - 8 дисков.
При таком размере кэша котролер по идеее должен успевать раскидывать все задания по дискам элеваторным методом.

Кроме того если хотите что-то бюджетно улучшить можете посомтреть в сторону ZFS,
недавно кстати вышо последенее обновление zfsonlinux.org

Фишка в том, что ZFS позволяет организовать КЭШ на базе SSD дисков,
что должно заметно увеличит скорость доступа к данным по чтению.
Цена вопроса - 10т.р.

Когда-то я наталкивался на очень обнадеживающие статьи, вот например:
http://dtrace.org/blogs/brendan/2008/07/22/zfs-l2arc/
4. AlexO 135 20.06.12 13:52 Сейчас в теме
(3) wkon,
все задания по дискам элеваторным методом

нет такого метода RAID-записи :)
(1) audion,
вы определитесь - что хотите: надежность, быстроту, или и то, и то, но - посерединке.
Посморите, что такое RAID'ы 5, 10, 50.
Под систему вообще рэйд смысла нет ставить (разве что - на быстрых дисках и RAID 0), если навернется - восстанавливать её не надо, а восстановление инфо - основная задача RAID. А в RAID 1 под ОС вы только теряете в скорости...
Под систему вообще можно сделать виртуальный сервер (да, собственно, и под каждую базу данных), и рулить на уровне виртуалок - возможно, комлекс из серверов и EMS будет по стомиости сопоставим с вашими расходами на это дело (хотя и недешево).
И никакой RAID все равно не заменит бэкапы - самая лучшая система - это комбинированная.
5. wkon 14 20.06.12 14:40 Сейчас в теме
(4)
[quote] нет такого метода RAID-записи :) [/quote]
Не цепляйтесь к словам, если имеете представление о работе дисков, наверняка догадались о чем речь идет:
http://en.wikipedia.org/wiki/Elevator_algorithm

[quote] Под систему вообще рэйд смысла нет ставить (разве что - на быстрых дисках и RAID 0), если навернется - восстанавливать её не надо [/quote]

зато возможно надо будет вернутся из отпуска ...

А вообще-то, автор темы организовал систему изначально правильно, в соответсвии с классическими рекомендациями, не стоит советовать ему "сходить и почитать про RAID".
8. audion 20.06.12 18:38 Сейчас в теме
(4) AlexO, ОК, спасибо, разумеется, бэкапы настроены и работают. Пока что ежедневные полные дампы рабочих баз (там еще тестовые, разработочные, всякие клиентские, т.е. не все надо архивировать постоянно) на диск на самом сервере, плюс копия через SCP на отдельный сервер бэкапов в другом помещении, раз в неделю запись на два комплекта ДВД - один в сейф руководству, другой - в еще более надежное место (ГУСАРЫ! :-)) Дамп всех баз - раз в 10 дней, та же схема. Архив образа системы - по мере необходимости (после существенных изменений).
7. audion 20.06.12 18:31 Сейчас в теме
(3) wkon,
Ну не знаю, мне кажется, что с аппаратным райдом и кэшем на запись 512M лучше все запихать в один RAID10 и не парится.
Как раз и получите RAID10 - 8 дисков.
При таком размере кэша котролер по идеее должен успевать раскидывать все задания по дискам элеваторным методом.

Была такая мысль, если честно :-) Еле-еле заставил себя от нее отказаться. Опять же, Смит не рекомендует.
Оптимизацию алгоритма работы с дисками, если честно, пока не изучал детально, оставил "на потом".

Насчет ZFS - спасибо, посмотрел статью. Выбор ФС для меня лично был продиктован только одним соображением: сравнительно высокой надежностью ext3 и 4 и, главное, опытом восстановления данных. Есть просто такое правило: для производства выбирать ту ФС, которую умеешь восстанавливать :-) С ZFS практически не сталкивался, но в перспективе посмотрю, спасибо!
49. Andre1C 10.01.21 23:43 Сейчас в теме
11. wkon 14 21.06.12 12:49 Сейчас в теме
Еще один вариант, купить на оставшиеся 20т.р. два SSD, объедините их в RAID1, как раз ваши базы данных туда поместятся.
13. wkon 14 21.06.12 19:05 Сейчас в теме
[quote]
wkon, SSD (нормальный) стоит куда дороже 20 т.р. Например, у Seagate серии Pulsar, Pulsar XT. А к "ширпотребу" доверия нет пока. ИМХО рановато, вот лет через пару - мэйби, а пока что не хочется рисковать. Я лучше за эту цену 4 раптора возьму, в 10-м рэйде.
[/quote]

Intel X25-M SSD 120 Gb вполне приличный по цене 10 т.р.

У нас такой на загруженном корпоративном почтовом сервере уже года три как работает, пока нареканий не было.

Впрочем, как знаете. Успехов.
19. audion 22.06.12 21:52 Сейчас в теме
Уважаемые друзья, всем спасибо, пока что сделал так: на отдельные шпиндели (контроллер материнки) вынес /tmp/1c и /swap, уже только одно это дало прирост по тесту Гилева около 5 ед. Диски - WD рапторы 300 ГБ. Пока на этом и остановлюсь.

(13) wkon, спасибо за информацию, подумаем. А на почтовике он "кем" работает. под систему или под базы?

(18) asved.ru, да ладно, все нормально :-)
Думаете, мне не хотелось бы заменить зоопарк на пролианты? Но людям ведь надо зарплату платить. Дело не в желании "на грош пятаков", а просто выжать из имеющегося в наличии железа все, на что оно способно.
К нам из ИТС девочка приходит, приносит диск и всякую лабуду, так она говорит, что мы у нее одни такие, у кого сервер, SQL, компьютеры нормальные. У остальных - расшаренная папка на "сервере" и пяток заморенных бухгалтерш. Не от хорошей жизни ведь, правда?
Я лично прекрасно понимаю разницу между энтерпрайз и сохо. Но это не значит, что тем, у кого 50-100 пользователей, надо делать все, как у 500+. Мы только на одних лицензиях MS SQL и Win Server в конкретном случае реализации сервера Linux+ 1С + POstgreSQL сэкономили столько, что железо досталось практически даром.
К слову, дружественная конторка тоже сделала себе примерно нечто похожее, но силами сторонних "внедрителей". Сервак еле шевелился. На все вопросы - ответ "а че вы хотите, чтоб летало - надо MS SQL". Пришел, посмотрел. Оказалось, эти бараны, иначе и не назовешь, даже не удосужились диски разбить по-человечески, поставили убунту "искаропки". Как оно вообще запустилось, не понимаю. Сделал как надо, люди довольны. Железо не трогал вообще. А иначе бы еще одни орали "этот ваш линукс вообще не работает и фуфло".

So it goes...

Удачи!
20. wkon 14 23.06.12 00:58 Сейчас в теме
[quote]wkon, спасибо за информацию, подумаем. А на почтовике он "кем" работает. под систему или под базы?[/quote]
(19) audion, под базы конечно, только у нас X-25M не 120 а 160Гб.

/dev/mapper/vgSSD-lvVarSpool
99G 69G 27G 73% /var/spool
/dev/mapper/vgSSD-tmp
4.0G 788M 3.2G 20% /tmp
/dev/mapper/vgSSD-lvPool
16G 13G 2.7G 83% /pool
21. audion 25.06.12 18:05 Сейчас в теме
50. Andre1C 11.01.21 00:16 Сейчас в теме
(19)Подскажите как правильно разбить диски для установки серверной Ubuntu и 8.3 на 5 пользователей. С Линуксом до этого не доводилось работать.
15. asved.ru 36 21.06.12 23:15 Сейчас в теме
Прекратите уже нищебродство и возьмите полку. Навтыкайте в нее маленьких недорогих SSD, если уж так жаба давит.

А вообще при таких требованиях к отказоустойчивости я конторе с таким бюджетом предложил бы долгую и увлекательную прогулку.
16. asved.ru 36 21.06.12 23:19 Сейчас в теме
И еще. При наличии коммерческого дистрибутива аналогичный некоммерческий следует использовать только предыдущей ветки. Вам же за тестирование никто не платит?
22. 3dprinter 03.02.15 10:49 Сейчас в теме
я бы на аппаратные рейды даже не смотрела
что вы будете делать через пару лет когда контроллер прикажет дольше жить
уж лучше софт рейд.
23. audion 11.02.15 14:57 Сейчас в теме
(22) Не все так страшно. Во-первых, вся информация о массиве хранится на самих дисках, так что контроллер сдох - не беда, заменим; во-вторых, на моей памяти из десятков аппаратных плат в хлам (невосстановимо) сдохли 1 адаптек и 1 промайз, туда ему и дорога. LSI ремонтировались и работают, наверное, по сей день. Во-вторых, восстановление массива обычно возможно без бубна, если менять контроллер на аналогичный, не обязательно такой же точно. Грубо говоря, адаптек на адаптек, LSI на LSI. Просто понятно, что HBA-only контроллер в принципе не сможет восстановить RAID-массив, ну и "безмозглый" контроллер, поддерживающий только 0,1,1+0 массивы будет бесполезен для 5,6,50,60. В общем, не все так страшно.
Да и вообще, ладно, если надо сделать зеркало из 2 дисков, а если надо 10-й рэйд из 8 дисков забацать? На материнке столько и портов-то нет. А если из 32 дисков? В общем, для домашних целей - может, Вы и правы, но в продакшене - пардон, не согласен.

Да, про специальный софт типа Raid Reconstructor и необходимость регулярных РАБОЧИХ бэкапов я даже говорить не буду.
24. DimaN.70rus 02.03.16 08:32 Сейчас в теме
Всем доброго дня. Небольшая предыстория: Не так давно стал заниматься поддержкой серверного оборудования на предприятии где собственно и работаю. В тонкой настройке еще откровенно слабоват, посему и прибегаю к просьбам о помощи на данном ресурсе. Ситуация такая, а наличии есть сервер (тех.характеристики ниже), поставлена задача запилить его под работу 1с 8.3 местной бухгалтерии, переход. Еще один сервер пока на переходный период крутит 1с 7 версию, его пока и не трогаем. Программист 1с постоянно жалуется на "тормознутость" системы, все работает но притормаживает по его словам (по монитору ресурсов более менее загружена дисковая система). В общем работает 15-17 бухгалтеров/экономистов, все работаю локально.

Сервер: SuperMicro X8DT3-3F / Intel Xeon E5506 (4 core) x2 / Оперативная память DDR3 Kingstone 32Gb (4x8Gb) / HDD Seagate Cheetah 15k 2x147Gb + 2x600Gb / Adaptec RAID 3405 kit / сеть и прочее.

* На машине развернута виртуалка VMware (работаю две виртуальных машины (оперативная разбита 28Gb под 1с и 4Gb вторая виртуалка), винты собраны в Raid 1 (в системе видятся 1-147Gb и 1-600Gb соответственно). Операционки на обоих машинках Win2008 Server с терминальными серверами (RDP), домена нет, да и особой настройки не производилось.

Исходя из выше перечисленного прошу совета по оптимизации сервера, как убрать эти лаги, задержки при обработке задач на машине? У меня возникла идея по остановке машины сносу виртуализации, пересобрать рейд в 10. Чистая и прямая установка ОС, восстановление юзеров и прочее (как вариант доустановка еще одного винта для перемещения всех tmp). Но насколько это мне поможет я к сожалению не осознаю, вот и возник вопрос о стоимости овчины и выделки. Еще вопрос к знающим насколько сильно в целом систему тормозит виртуализация?
27. audion 10.03.16 00:09 Сейчас в теме
(24) DimaN.70rus, виртуализация весьма существенно сказывается на производительности. Если у вас файловая 1с, то при 15 одновременных пользователях есть смысл переходить на sql. Виртуалки, конечно, хороши удобством бэкапа и простотой переноса на другое железо, но лаги чудовищные.
Что касается дисковой системы, полагаю, разумно иметь два массива: один под ОС, другой под БД, причем последний строго 10, никаких 5/6. Хотя, у 3405 только 4 хвоста, ну, поэтому мы такие и не применяем.
И еще: радиатор у адаптеков чисто символический, и если охлаждение в корпусе недостаточное, то он очень сильно греется. Мы обычно всегда ставим дополнительный кулер на радиатор (при этом теряется соседний слот), или обдув сбоку, если позволяет конструкция корпуса.
29. smaharbA 10.03.16 00:12 Сейчас в теме
(27) audion, 15 пользователей ? Вы не прикуели ли в вопросе юноша ?
30. audion 10.03.16 00:20 Сейчас в теме
44. h00k 51 10.03.16 01:37 Сейчас в теме
(24) DimaN.70rus,
а наличии есть сервер (тех.характеристики ниже)

Печальные характеристики... 1С, да и не только, любит процессоры с высокой тактовой частотой, желательно не ниже 3Ггц.

А по сабжу - поставить свежую 8.3.8.1502, поднять Апач 2.4 и опубликовать на нем базу с БП 3.0, настроить подключение к БП 3.0 через тонкий клиент по хттп. Тормоза, с вероятностью 80%, пропадут.
28. smaharbA 10.03.16 00:11 Сейчас в теме
У Вас есть людские ресурсы держать райд ?
31. smaharbA 10.03.16 00:24 Сейчас в теме
Когда поймешь тогда и спрашивай...
В своё время на винфрейме (не виндуз) десяток другой (1996 и ранее) работали не жужали на 20000 лицевых счетах.
Ваши вопросы ваапче не вАпросы...
32. audion 10.03.16 00:28 Сейчас в теме
(31) smaharbA, не хами, ладно? в свое время на суперкалке учет вели,и что теперь? 15 пользователей на бп 3.0 в файловом варианте - тоскливо, а рэйд - он не только для скорости, но и для надежности.
33. smaharbA 10.03.16 00:32 Сейчас в теме
(32) audion,
райд и надежность ? У тебя есть десяток райдоСмотрящих или тебе делать нех ?
35. audion 10.03.16 00:35 Сейчас в теме
(33) smaharbA, открой же для себя hot spare наконец, вылеты современных дисков с мтбф > 1 млн.часов происходят отнюдь не каждый день. И контроллер об этом громко скажет, подцепит подменный диск, ребилдит массив и отрапортует в журнал.
36. smaharbA 10.03.16 00:38 Сейчас в теме
(35) audion,
Мне то нахрена ?
Открывай себе, все украдено до тебя...
38. audion 10.03.16 00:44 Сейчас в теме
(36) smaharbA, кажется, все в вами ясно. Завязываем оффтоп.
39. smaharbA 10.03.16 00:50 Сейчас в теме
(38) audion, Вы читали свои вводные данные ?
У Вас точно есть ресурсы в проекте за присмотром за райдом ?
40. audion 10.03.16 00:58 Сейчас в теме
(39) smaharbA, вы дату читали? вы (26) читали?
И какой еще десяток смотрящих за рэйдом? какие еще ресурсы? Штатный админ не в состоянии справиться с заменой отказавшего диска в рэйде? 2-3 раза в год? И если массив 1 или 10, то пользователи вообще ничего не заметят, только писк из серверной, и даже если штатного админа нет, то приходящий заменит в удобное время.
В общем, беспредметный разговор.
42. smaharbA 10.03.16 01:08 Сейчас в теме
(40) audion,
Т.е. райд таки оказался не востребован ?
45. h00k 51 10.03.16 01:40 Сейчас в теме
(40) audion,
2-3 раза в год?

ОМГ, а это что за какашки такие, что в массиве из 8 дисков приходится 2-3 раза в год диски менять?!!! Научи, я такие плохим дядям буду советовать %)
46. audion 10.03.16 15:41 Сейчас в теме
(45) h00k, ироничный ты наш, дело бывает не только в дисках, но и в блоках питания, а точнее - в разъемах. В серверной было +17, провода задубели, а в корпусе неудобное подсоединение коннекторов, сильный изгиб. Корпус вот такой http://www.nix.ru/autocatalog/cases_chieftec/Bigtower-Chieftec-BA-02B-B-B-Black-ATX-Bez-BP-s-dvertsej_50866.html Вот и произошли 2 отказа за год. Заменили разъемы питания на БП на угловые, никто не помер. И, кстати, был печальный опыт с WD RE4, очень много отказов по дискам, изготовленным в определенную дату. Поставщик заменил все по гарантии, но теперь их почти не берем.
Да, и тебя не смутил пост (33)? насчет десяти специально обученных рэйдосмотрящих?
47. h00k 51 10.03.16 16:58 Сейчас в теме
(46) audion,
а в корпусе неудобное подсоединение коннекторов, сильный изгиб.

Понятно, какашки вместе с сантех кабиной :)

И, кстати, был печальный опыт с WD RE4

Мне, как-то, наши закупаторы пытались предложить поэкспериментировать с ними - прогнал их ссаными тапками ультрастары искать...

Да, и тебя не смутил пост (33)? насчет десяти специально обученных рэйдосмотрящих?

Нет. Вполне допускаю, что хватает темных людей, не знающих, что рэйд-контроллер, в случае возникновения внештатной ситуации, может и письмо или СМС-ку черкануть... типа SOS (Save Our Storage). ;)

Да и вообще, смысл на откровенный бред то реагировать?!
48. audion 10.03.16 17:23 Сейчас в теме
(47) h00k, корпусок уж очень приятственный, особенно при его цене и размерах. Туда 16 винтов - "тики так", полноразмерная серверная мамка EATX - влегкую, БП - любой. А уж как охлаждение продумано - чудо. А что ширины чуть-чуть не хватает - это абыдна, винчестеры ставятся поперек, и все кабели плотно прижимаются крышкой. Это его главный и единственный недостаток.
Кстати, выкрутились так: заказали 100 шт. очень качественных разъемов, сами их ставили на кабели, в результате - ни одного отказа, уже сколько лет. А все эти переходники molex-sata, что лежат в магазинах - мусор.

WD RE4 раньше проблем не вызывали, это просто партия дефективная попалась. Но Seagate Constellation ES3 и HGST понравились больше, и цена оказалась вкуснее.

Насчет бреда - ну, мы-то понимаем, а молодые-зеленые, кто первый раз делает?
34. smaharbA 10.03.16 00:33 Сейчас в теме
+ ты когда ни будь попадешь в прошлое и будешь чесать репу...
37. smaharbA 10.03.16 00:42 Сейчас в теме
+ если без "стеба", все реально по теме и искренне.
41. smaharbA 10.03.16 01:06 Сейчас в теме
Тута да, оплашал может, но скажи ка какие в результате были вариации ?
43. audion 10.03.16 01:18 Сейчас в теме
(41) smaharbA, специфично, но для самого простого решения выстрадана конфигурация RS2BL080 с ББУ, 2 диска в RAID1 под ОС (Centos 6.5 или Ubuntu 14.04), 2 диска в RAID1 под pg_xlog (PostgreSQL 9.x) и 4 диска в RAID10 под БД. На самой материнке диск для временного бэкапа. Это самый простой вариант. Hot spare применяем только для систем с экспандерами, тогда можно еще 2 диска добавить на global hot spare или по одному dedicated hot spare, если они разные. Вариант с 2-мя дисками RAID1 под БД не понравился: чуть ниже производительность. Зато можно добавить 2 диска горячей замены.
Игрались с SSD-кэшем, классно, но как-то не пошло: дороговато.
Винты используем WD VelociRaptor, WD RE4 (почти отказались от них), Seagate Constellation ES.3 и HGST Ultrastar 7K4000, на них гарантия 5 лет.
Оставьте свое сообщение

Для получения уведомлений об ответах подключите телеграм бот:
Инфостарт бот