Выгрузка-загрузка большой базы в dt файл
Добрый день, коллеги.
Имеется большая база (более 700Гб) на MS SQL. Подтормаживает.
Хочу выгрузить эту базу в dt файл и потом загрузить. Ожидаю, что при этом размер базы уменьшится и, возможно, увеличится производительность. При этом не очень понимаю сколько времени может занять такая процедура (в моем распоряжении 2 выходных).
Хотелось бы получить ответ от тех, кто имеет подобный опыт.
Спасибо.
Имеется большая база (более 700Гб) на MS SQL. Подтормаживает.
Хочу выгрузить эту базу в dt файл и потом загрузить. Ожидаю, что при этом размер базы уменьшится и, возможно, увеличится производительность. При этом не очень понимаю сколько времени может занять такая процедура (в моем распоряжении 2 выходных).
Хотелось бы получить ответ от тех, кто имеет подобный опыт.
Спасибо.
По теме из базы знаний
Ответы
Подписаться на ответы
Инфостарт бот
Сортировка:
Древо развёрнутое
Свернуть все
(16)
Это так, если не делать архив лога, ну это к слову.
Саму БД пробовали шринковать?
Что вернёт
модель восстановления простая, иначе лог займет все что найдет и больше никто работать не сможет
Это так, если не делать архив лога, ну это к слову.
Саму БД пробовали шринковать?
Что вернёт
use СюдаНаписатьИмяБД
SEL ECT
DB_NAME(database_id) AS ИмяБазыДанных,
file_id,
name AS ИмяФайла,
type_desc,
size * 8. / 1024 AS ТекущийРазмер_MB
,
size * 8. / 1024 - CAST(FILEPROPERTY(name, 'SpaceUsed') AS INT) * 8. / 1024 AS СвободноеПространство_MB
FR OM
sys.master_files
WHERE
database_id = DB_ID();
Показать
(18)
Так запрос, что вернёт, если его исполнить в SQL management studio??
но я это делаю при помощи SQL management studio
Так запрос, что вернёт, если его исполнить в SQL management studio??
use СюдаНаписатьИмяБД
SEL ECT
DB_NAME(database_id) AS ИмяБазыДанных,
file_id,
name AS ИмяФайла,
type_desc,
size * 8. / 1024 AS ТекущийРазмер_MB
,
size * 8. / 1024 - CAST(FILEPROPERTY(name, 'SpaceUsed') AS INT) * 8. / 1024 AS СвободноеПространство_MB
FR OM
sys.master_files
WHERE
database_id = DB_ID();
ПоказатьПодтормаживает
Это очень расплывчатое утверждение
Ожидаю, что при этом размер базы уменьшится
Не уменьшится, так только на файловой базе бывает. Скульная база может сжаться только в результате шринка или загрузки бэкапа этой базы в новый файл.
возможно, увеличится производительность.
Маловероятно
в моем распоряжении 2 выходных
Лучше потратить их на изучение регламентых операций по обслуживанию баз и методик замера производительности и нагрузки
У меня конечно поменьше было около 100 гб, включены изменения, есть расширения с данными, база на постгрешке, база выгружалась в dt, но обратно не загружалась (в базу загружены не все данные). Запросом в постгрес посмотрел размеры таблиц (как в скуле не знаю, работаю с постгресом), обнаружилось, что из 100 гб 60 занимает история изменений (которую кто-то включил), а 30 логи и информация об ошибках в РС в расширении CRM Битрикса. После очистки этих таблиц база стала весить 8 гб и выгружается/загружается в любых вариантах. Посмотрите размеры таблиц, возможно, как и у меня, большие объемы окажутся мусорными
Если хочется производительности я бы начал с :
-надо настроить sql
-сам сервер
-понять что там за железки вообще может вы на 5400 дисках с 10мб сетью сидите (но как правило дело не в железе), может у вас свитч на котором сервак висит помирает. Хотя уверен админ скажет что у него все ок=).
-разнести базу (tempdb на отдельный шустрый диск, можно заморочиться и тяжелые таблицы вынести так же на шустрые диски)
-обязательно настроить регламенты на sql обновление статистики-индексы и тд
-ну и самое главное смотрите код-запросы, раз база 700гб, есть мнение что там успело поработать не мало народу. Вычисляйте где тупит и анализируйте (хотя бы через Замеры производительности и оптимизируйте)
-Apdex в помощь.
ну вот на вскидку что пришло в голову (информацию на каждый пункт и инструкции можно найти в интернете или на этом портале)
-надо настроить sql
-сам сервер
-понять что там за железки вообще может вы на 5400 дисках с 10мб сетью сидите (но как правило дело не в железе), может у вас свитч на котором сервак висит помирает. Хотя уверен админ скажет что у него все ок=).
-разнести базу (tempdb на отдельный шустрый диск, можно заморочиться и тяжелые таблицы вынести так же на шустрые диски)
-обязательно настроить регламенты на sql обновление статистики-индексы и тд
-ну и самое главное смотрите код-запросы, раз база 700гб, есть мнение что там успело поработать не мало народу. Вычисляйте где тупит и анализируйте (хотя бы через Замеры производительности и оптимизируйте)
-Apdex в помощь.
ну вот на вскидку что пришло в голову (информацию на каждый пункт и инструкции можно найти в интернете или на этом портале)
(22) а в чем притормаживания проявляются ? Долго проводится что-то? Блокировки может ? Или просто само по себе лагает все ? Анализировали ЖР ?
У меня были случаи что у людей все проводилось долго и блокировки лезли. Оказалось что один из сотрудников перепроводил реализации (выделили ему отдельное окно для этого всего).
Так же был случай когда конкретный пользователь жаловался на тормоза (была проблема с патчкордом и гнездом в свитче).
Насчет большого объема вопрос, вы файлы случайно не храните в базе ? Если да, то можно использовать хранение в томах. Тут могу посоветовать проанализировать таблицы и сопоставить их с 1с, что бы понять что у вас в топ10 входит
У меня были случаи что у людей все проводилось долго и блокировки лезли. Оказалось что один из сотрудников перепроводил реализации (выделили ему отдельное окно для этого всего).
Так же был случай когда конкретный пользователь жаловался на тормоза (была проблема с патчкордом и гнездом в свитче).
Насчет большого объема вопрос, вы файлы случайно не храните в базе ? Если да, то можно использовать хранение в томах. Тут могу посоветовать проанализировать таблицы и сопоставить их с 1с, что бы понять что у вас в топ10 входит
(23) В базе одновременно боле 100 пользователей + обмены со внешними системами, ...
Идут блокировки. Уже более месяца (ранее тоже случались, но не часто).
Таблицы по объему анализировала. на 1 мете таблица итогов регистра ЗаказыПокупателей (более 140 Гб) На втором регистр Продажи, далее субконто....
Делаю только дефрагментацию индексов и обновление статистики, очистку процедурного кэша - каждый день. Вроде как доктор прописал.
Реиндексацию давно не запускала - не знаю как долго будет выполняться. Может от этого тор
моза включились?
Идут блокировки. Уже более месяца (ранее тоже случались, но не часто).
Таблицы по объему анализировала. на 1 мете таблица итогов регистра ЗаказыПокупателей (более 140 Гб) На втором регистр Продажи, далее субконто....
Делаю только дефрагментацию индексов и обновление статистики, очистку процедурного кэша - каждый день. Вроде как доктор прописал.
Реиндексацию давно не запускала - не знаю как долго будет выполняться. Может от этого тор
моза включились?
Насчет обменов можно попробовать составить график по времени (запуск и продолжительность) удобнее и нагляднее в диаграмме Ганта будет.
Посмотрите возможно есть пересечения.
Проанализируйте, возможно где-то можно интервалы увеличить, или наоборот уменьшить.
Может быть что-то вообще в ночь перенести можно, а что-то может и не актуально уже стало и можно отключить.
Посмотрите возможно есть пересечения.
Проанализируйте, возможно где-то можно интервалы увеличить, или наоборот уменьшить.
Может быть что-то вообще в ночь перенести можно, а что-то может и не актуально уже стало и можно отключить.
Для получения уведомлений об ответах подключите телеграм бот:
Инфостарт бот