процессор для неудачников, низкая частота, прежде всего проблема в процессоре, процессор это 50% всей производительности, к тому же максимум из него по дефолту не выжат, это надо настраивать в биос и ос http://www.gilev.ru/systemperfomance/,
файловый тест и клиент-серверный не корректно сравнивать http://www.gilev.ru/mssqlvsfile/ приходите на наш тренинг http://www.gilev.ru/training/ по подбору оборудованию, больше нигде подобного полного освещения темы вы не найдете
(2) Диск и так SSD, он весьма хорош. Обратите внимание что в файловой версии базы данных тест показывает 44,64, а в клиент-серверном, варианте 17.
Возможно вопрос в SQL или в настроке сервера 1С ?
(5) да, я хотел сказать, что все "затыки" именно в дисковых операциях, будь то файловый вариант, или SQL, да и обратите внимание, никакие другие службы или сервисы "Окна" не запущены ?
специально запустил у себя: Однопоточный синтетический тест платформы 1С:Предприятие + Многопоточный тест записи на диск (2.1.0.7)
Гилёв Вячеслав Валерьевич
(gilev.ru/1c/tpc)
тест показал 63,29, махнусь неглядя на сервак.
tempdb лучше на отдельном шустром диске
поковыряйтесь в параметрах базы автообновление статистики , автосжатие лучше убрать, авторасширение в зависимости от скорости изменений > 1 мб (по умолчанию)
1.44 попугая в файловой базе на 2,4GHz - это нормально (на 3,2 - 65 => 3,2/2,4 * 65 = 48). Зависимость файловой базы от частоты процессора практически линейная (на одной архитектуре вообще линейная).
2. 17 попугаев на серверной базе - это почти хорошо, т.к. в самом лучшем случае клиент-серверная база с одним пользователем работает в 2 раза медленнее. У Вас в 2,6 почти раз медленнее, что говорит о наличии некоторых проблем.
3. Основные проблемы для одного потока, в котором нет никакой конкуренции за ресурсы, - это передача данных от сервера 1С серверу SQL и обратно, время записи данных на диск (как со стороны 1С - лог, так и со стороны SQL - файл базы данных, лог базы данных, файлы временных таблиц). Чтение с диска в однопоточном тесте Гилева, полагаю, вообще не производится, т.к. памяти хватает и вся база закеширована.
Отсюда простые рекомендации:
1. Включите boost. Он позволит одному потоку достигать большей частоты и увеличит цифры теста как для файловой, так и для серверной части. Но для Вашего процессора тут все печально - 2,66GHz всего. Проц еще 32nm, 10-го года начала выпуска. Проц, собственно, - это тут самое узкое место, полагаю.
2. Разнесите логи и данные SQL на разные физические диски. Но если у Вас SSD, то это особо не поможет.
3. Разделите tenpdb на несколько частей (добавьте файлы в системную таблицу tempdb). Поместите их на отдельный диск (или вообще в RAM).
4. Но, полагаю, что-то выжать из этой железяги будет непросто.
ла надо посмотреть планы выполнения запросов, настройки SQL сервера, адекватность индексов и кеша.
Системные метрики по памяти, дисковым очередям и прочее..
Тормоза при проведении заказа клиента на УТ11 ( На проведение уходит почти 10 сек иногда, а иногда и за 3-4 проводится.)
26.
Gilev.Vyacheslav
191718.08.17 15:16 Сейчас в теме
(25) искажаете,
есть операции типа открытия элементов интерфейса, которые коррелируют с тестом и есть операции, которые работают фоном, пользователь их не видит, но они например делают закачку данных многопоточно из другой системы - разные тесты для разных операций
А в чем собственно проблемы? - оценка в гилевских попугаях не имеет никакого отношения к реальной работе.
Почему собственно задумались об повышении производительности железа ?
На каких то операция пользователям некомфортно... или вылазят блокировки?
Может для начала надо посмотреть планы выполнения запросов, настройки SQL сервера, адекватность индексов и кеша.
Системные метрики по памяти, дисковым очередям и прочее..
Посмотреть на учет - может не закрываются в 0 остатки регистров накопления/бух итогов - то, что накопилось с течением времени и вызывает деградацию производительности системы.
Сравнение однопоточного файлового и многопоточного серверного вариантов не имеет практического смысла.
Сервер 1с на виртуалке с е5-2699 2.2Г и 32Гб памяти, база на данный момент 800 гиг с приростом 20-30 гиг в месяц
Сервер SQL на таком же проце с 64Гб
- нет никаких проблем с производительностью за последние пол года точно.
у вас другой и явно более быстрый процессор, но при этом вы человеку говорите что дело не в железе
Да, дело не железе, а в одном проблемном документе - заказе.
Тормоза при проведении заказа клиента на УТ11 ( На проведение уходит почти 10 сек иногда, а иногда и за 3-4 проводится.)
так что нужно смотреть на реальных данных что в эти моменты происходит.
Нормально спроектированная и отлаженная система на том же самом оборудовании при увеличении объема данных не будет деградировать.
И смысл сразу валить на железо на основании попугаемеров нет.
35.
Gilev.Vyacheslav
191722.08.17 15:41 Сейчас в теме
(33) если проблема массовая, носит общий характер, то проблема с высокой вероятностью связана и с железом в том числе
если есть отдельная операция, которая написана программистом с ущербной днк ))), то дело в таком случае и в железе и в коде
то что плохой код это ни как не характеризует железо,
и основание валить в том числе на железо на основе теста есть и еще какое
ускорять можно и кодом и железом
то проблема с высокой вероятностью связана и с железом в том числе
Вполне возможно, что проблема в железе, но:
Тест разве проводит низкоуровневые проверки? - он оперирует общей производительностью системы, которая складывается и из программных факторов, таких как настройка ОС, СУБД, конфигурации.
Т.е. три четверти теста зависит от программных настроек, причем больший вклад дают конфигурация и СУБД.
И на что тогда надо обратить первым внимание? на железо?
PS: Железо уже в наличии. оно есть и мгновенно не меняется. Самое простое что можно "быстро" с ним сделать - это добавить оперативки. А проще всего проверить в первую очередь конфигурацию и настройки СУБД - это займет меньше времени и средств.
PSS: По собственному опыту:
Удаление лишнего условия при соединении в запросе позволило увеличить производительность этого запроса на порядки.
Установка правильно порядка измерений в регистрах - еще прирост производительности (селективные индексы).
Перенос одного из условий отбора вирт таблицы регистра в секцию "ГДЕ" - тоже прирост выполнения в 3-4 раза.
Организация учета, что бы закрывались в 0 таблицы остатков (устранение "пересортов" по вроде бы неважным измерения) - еще плюс..
В большинстве случаев надо не сверх-быстро - а стабильно, т.е. одинаковое время на операции с увеличеним данных вне зависимости от их объемов как в месяц так и проводок в секунду. И тут железо стоит на последнем месте.
Если добился стабильности - тогда можно переходить на новое железо - эффект будет заметен.
ну да, купили унылую хрень и думаете "оно есть и мгновенно не меняется"
не в теории, а на практике когда есть желание у Заказчика решать вопросы мы помогли и за день организовали новое железо, вот отзыв http://www.gilev.ru/lamoda/ и главное, это замена заметно помогла решить вопрос
PSS: По собственному опыту:
Удаление лишнего условия при соединении в запросе позволило увеличить производительность этого запроса на порядки.
пока запрос не оптимален, его надо оптимизировать, но если дальше оптимизация не возможна, вот тут то замена E5620 на нормальный проц скажется очень
как показывает практика, руководство охотней выделяет суммы как раз на апгрейд, а не колупания программиста, хотя важно со всех сторон решать задачу
причем кодом решение проблемы может происходить значительно дольше чем железом