Найденные решения
(1)
Если под надежностью понимать целостность данных и возможность их 100%-го восстановления, наилучшим способом будет остановить службу(daemon) PostgreSQL и скопировать каталог pgsql/data целиком. Либо воспользоваться утилитой pg_basebackup для создания резервной копии кластера. Недостаток этих способов - невозможность создания резервной копии отдельной базы данных. Зато надежно.
В заметке на ИТС "Резервное копирование базы данных при работе с PostgreSQL" предлагается использовать pg_dump -F c, видимо, потому что формат custom считается более гибким при дальнейшем восстановлении данных.
Можно еще использовать формат выгрузки в каталог -F d, который поддерживает работу в несколько потоков. Это удобно, так как время выгрузки(и восстановления) значительно сокращается, при наличии достаточного количества процессорных ядер, конечно.
какой из вариантов надежнее?
Если под надежностью понимать целостность данных и возможность их 100%-го восстановления, наилучшим способом будет остановить службу(daemon) PostgreSQL и скопировать каталог pgsql/data целиком. Либо воспользоваться утилитой pg_basebackup для создания резервной копии кластера. Недостаток этих способов - невозможность создания резервной копии отдельной базы данных. Зато надежно.
В заметке на ИТС "Резервное копирование базы данных при работе с PostgreSQL" предлагается использовать pg_dump -F c, видимо, потому что формат custom считается более гибким при дальнейшем восстановлении данных.
Можно еще использовать формат выгрузки в каталог -F d, который поддерживает работу в несколько потоков. Это удобно, так как время выгрузки(и восстановления) значительно сокращается, при наличии достаточного количества процессорных ядер, конечно.
Остальные ответы
Подписаться на ответы
Инфостарт бот
Сортировка:
Древо развёрнутое
Свернуть все
(1)
Если под надежностью понимать целостность данных и возможность их 100%-го восстановления, наилучшим способом будет остановить службу(daemon) PostgreSQL и скопировать каталог pgsql/data целиком. Либо воспользоваться утилитой pg_basebackup для создания резервной копии кластера. Недостаток этих способов - невозможность создания резервной копии отдельной базы данных. Зато надежно.
В заметке на ИТС "Резервное копирование базы данных при работе с PostgreSQL" предлагается использовать pg_dump -F c, видимо, потому что формат custom считается более гибким при дальнейшем восстановлении данных.
Можно еще использовать формат выгрузки в каталог -F d, который поддерживает работу в несколько потоков. Это удобно, так как время выгрузки(и восстановления) значительно сокращается, при наличии достаточного количества процессорных ядер, конечно.
какой из вариантов надежнее?
Если под надежностью понимать целостность данных и возможность их 100%-го восстановления, наилучшим способом будет остановить службу(daemon) PostgreSQL и скопировать каталог pgsql/data целиком. Либо воспользоваться утилитой pg_basebackup для создания резервной копии кластера. Недостаток этих способов - невозможность создания резервной копии отдельной базы данных. Зато надежно.
В заметке на ИТС "Резервное копирование базы данных при работе с PostgreSQL" предлагается использовать pg_dump -F c, видимо, потому что формат custom считается более гибким при дальнейшем восстановлении данных.
Можно еще использовать формат выгрузки в каталог -F d, который поддерживает работу в несколько потоков. Это удобно, так как время выгрузки(и восстановления) значительно сокращается, при наличии достаточного количества процессорных ядер, конечно.
Для получения уведомлений об ответах подключите телеграм бот:
Инфостарт бот