Yandex Cloud
Поиск
Связаться с намиПопробовать бесплатно
  • Истории успеха
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
  • Marketplace
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Искусственный интеллект
    • Безопасность
    • Инструменты DevOps
    • Бессерверные вычисления
    • Управление ресурсами
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Калькулятор цен
    • Тарифы
    • Акции и free tier
  • Истории успеха
  • Документация
  • Блог
Создавайте контент и получайте гранты!Готовы написать своё руководство? Участвуйте в контент-программе и получайте гранты на работу с облачными сервисами!
Подробнее о программе
Проект Яндекса
© 2026 ООО «Яндекс.Облако»
Практические руководства
    • Все руководства
    • Самостоятельное развертывание веб-интерфейса Apache Kafka®
    • Обновление кластера Managed Service for Apache Kafka® с ZooKeeper на KRaft
    • Миграция БД из стороннего кластера Apache Kafka® в Managed Service for Apache Kafka®
    • Перенос данных между кластерами Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Debezium
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Debezium
    • Поставка данных из Managed Service for YDB в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for ClickHouse® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Yandex MPP Analytics for PostgreSQL с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Yandex StoreDoc с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for MySQL® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for OpenSearch с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for PostgreSQL с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for YDB с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Data Streams с помощью Data Transfer
    • Поставка данных из Data Streams в Managed Service for YDB с помощью Data Transfer
    • Поставка данных из Data Streams в Managed Service for Apache Kafka® с помощью Data Transfer
    • Захват изменений YDB и поставка в YDS
    • Настройка Kafka Connect для работы с кластером Managed Service for Apache Kafka®
    • Синхронизация топиков Apache Kafka® в Object Storage без использования интернета
    • Отслеживание потери сообщений в топике Apache Kafka®
    • Автоматизация задач Query с помощью Managed Service for Apache Airflow™
    • Отправка запросов к API Yandex Cloud через Yandex Cloud Python SDK
    • Настройка SMTP-сервера для отправки уведомлений по электронной почте
    • Добавление данных в БД ClickHouse®
    • Миграция данных в Managed Service for ClickHouse® средствами ClickHouse®
    • Миграция данных в Managed Service for ClickHouse® при помощи Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for ClickHouse® с помощью Data Transfer
    • Асинхронная репликация данных из PostgreSQL в ClickHouse®
    • Обмен данными между Managed Service for ClickHouse® и Yandex Data Processing
    • Настройка Managed Service for ClickHouse® для Graphite
    • Получение данных из Managed Service for Apache Kafka® в Managed Service for ClickHouse®
    • Получение данных из Managed Service for Apache Kafka® в ksqlDB
    • Получение данных из RabbitMQ в Managed Service for ClickHouse®
    • Сохранение потока данных Data Streams в Managed Service for ClickHouse®
    • Асинхронная репликация данных из Яндекс Метрика в ClickHouse® с помощью Data Transfer
    • Использование гибридного хранилища в Managed Service for ClickHouse®
    • Шардирование таблиц Managed Service for ClickHouse®
    • Загрузка данных из Яндекс Директ в витрину Managed Service for ClickHouse® с использованием Cloud Functions, Object Storage и Data Transfer
    • Загрузка данных из Object Storage в Managed Service for ClickHouse® с помощью Data Transfer
    • Миграция данных со сменой хранилища из Managed Service for OpenSearch в Managed Service for ClickHouse® с помощью Data Transfer
    • Загрузка данных из Managed Service for YDB в Managed Service for ClickHouse® с помощью Data Transfer
    • Интеграция Yandex Managed Service for ClickHouse® с Microsoft SQL Server через ClickHouse® JDBC Bridge
    • Миграция базы данных из Google BigQuery в Managed Service for ClickHouse®
    • Интеграция Yandex Managed Service for ClickHouse® с Oracle через ClickHouse® JDBC Bridge
    • Настройка Cloud DNS для доступа к кластеру Managed Service for ClickHouse® из других облачных сетей
    • Миграция кластера Yandex Data Processing с HDFS в другую зону доступности
    • Импорт данных из Managed Service for MySQL® в Yandex Data Processing с помощью Sqoop
    • Импорт данных из Managed Service for PostgreSQL в Yandex Data Processing с помощью Sqoop
    • Монтирование бакетов Object Storage к файловой системе хостов Yandex Data Processing
    • Работа с топиками Apache Kafka® с помощью Yandex Data Processing
    • Автоматизация работы с Yandex Data Processing с помощью Managed Service for Apache Airflow™
    • Совместная работа с таблицами Yandex Data Processing с использованием Apache Hive™ Metastore
    • Перенос метаданных между кластерами Yandex Data Processing с помощью Apache Hive™ Metastore
    • Импорт данных из Object Storage, обработка и экспорт в Managed Service for ClickHouse®
    • Миграция коллекций из стороннего кластера MongoDB в Yandex StoreDoc
    • Миграция данных в Yandex StoreDoc
    • Миграция кластера Yandex StoreDoc с версии 4.4 на 6.0
    • Шардирование коллекций Yandex StoreDoc
    • Анализ производительности и оптимизация Yandex StoreDoc
    • Анализ производительности и оптимизация Managed Service for MySQL®
    • Синхронизация данных из стороннего кластера MySQL® в Managed Service for MySQL® с помощью Data Transfer
    • Миграция БД из Managed Service for MySQL® в сторонний кластер MySQL®
    • Миграция БД из Managed Service for MySQL® в Object Storage с помощью Data Transfer
    • Перенос данных из Object Storage в Managed Service for MySQL® с использованием Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Debezium
    • Миграция БД из Managed Service for MySQL® в Managed Service for YDB с помощью Data Transfer
    • Захват изменений MySQL® и поставка в YDS
    • Миграция данных из Managed Service for MySQL® в Managed Service for PostgreSQL с помощью Data Transfer
    • Миграция данных из AWS RDS for PostgreSQL в Managed Service for PostgreSQL с помощью Data Transfer
    • Миграция данных из Managed Service for MySQL® в Yandex MPP Analytics for PostgreSQL с помощью Data Transfer
    • Настройка политики индексов в Managed Service for OpenSearch
    • Миграция данных в Managed Service for OpenSearch из стороннего кластера OpenSearch с помощью Data Transfer
    • Загрузка данных из Managed Service for OpenSearch в Object Storage с помощью Data Transfer
    • Миграция данных из Managed Service for OpenSearch в Managed Service for YDB с помощью Data Transfer
    • Копирование данных из Managed Service for OpenSearch в Yandex MPP Analytics for PostgreSQL с помощью Yandex Data Transfer
    • Миграция данных из Managed Service for PostgreSQL в Managed Service for OpenSearch с помощью Data Transfer
    • Аутентификация в OpenSearch Dashboards кластера Managed Service for OpenSearch с помощью Keycloak
    • Использование плагина yandex-lemmer в Managed Service for OpenSearch
    • Создание кластера PostgreSQL для «1С:Предприятия»
    • Поиск проблем с производительностью кластера Managed Service for PostgreSQL
    • Анализ производительности и оптимизация Managed Service for PostgreSQL
    • Логическая репликация PostgreSQL
    • Миграция БД из стороннего кластера PostgreSQL в Managed Service for PostgreSQL
    • Миграция БД из Managed Service for PostgreSQL
    • Миграция кластера Managed Service for PostgreSQL на другую версию
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Debezium
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for YDB с помощью Data Transfer
    • Миграция БД из Managed Service for PostgreSQL в Object Storage
    • Перенос данных из Object Storage в Managed Service for PostgreSQL с использованием Data Transfer
    • Захват изменений PostgreSQL и поставка в YDS
    • Миграция данных из Managed Service for PostgreSQL в Managed Service for MySQL® с помощью Data Transfer
    • Миграция данных из Managed Service for PostgreSQL в Managed Service for OpenSearch с помощью Data Transfer
    • Решение проблем с сортировкой строк в PostgreSQL после обновления glibc
    • Миграция БД из Greenplum® в ClickHouse®
    • Миграция БД из Greenplum® в PostgreSQL
    • Выгрузка данных Greenplum® в холодное хранилище Object Storage
    • Загрузка данных из Object Storage в Yandex MPP Analytics for PostgreSQL с помощью Data Transfer
    • Копирование данных из Managed Service for OpenSearch в Yandex MPP Analytics for PostgreSQL с помощью Yandex Data Transfer
    • Создание внешней таблицы на базе таблицы из бакета Object Storage с помощью конфигурационного файла
    • Получение данных из внешних источников с помощью именованных запросов в Greenplum®
    • Миграция БД из стороннего кластера Valkey™ в Yandex Managed Service for Valkey™
    • Использование кластера Yandex Managed Service for Valkey™ в качестве хранилища сессий PHP
    • Загрузка данных из Object Storage в Managed Service for YDB с помощью Data Transfer
    • Загрузка данных из Managed Service for YDB в Object Storage с помощью Data Transfer
    • Обработка аудитных логов Audit Trails
    • Обработка логов Cloud Logging
    • Обработка потока изменений Debezium
    • Анализ данных с помощью Jupyter
    • Обработка файлов детализации в сервисе Yandex Cloud Billing
    • Ввод данных в системы хранения
    • Умная обработка логов
    • Передача данных в микросервисных архитектурах
    • Миграция данных в Object Storage с помощью Data Transfer
    • Миграция данных из стороннего кластера Greenplum® или PostgreSQL в Yandex MPP Analytics for PostgreSQL с помощью Data Transfer
    • Миграция кластера Yandex StoreDoc
    • Миграция кластера MySQL®
    • Миграция на сторонний кластер MySQL®
    • Миграция кластера PostgreSQL
    • Создание реестра схем для поставки данных в формате Debezium CDC из Apache Kafka®
    • Автоматизация работы с помощью Yandex Managed Service for Apache Airflow™
    • Работа с таблицей в Object Storage из PySpark-задания
    • Интеграция Yandex Managed Service for Apache Spark™ и Apache Hive™ Metastore
    • Запуск PySpark-задания с помощью Yandex Managed Service for Apache Airflow™
    • Использование Yandex Object Storage в Yandex Managed Service for Apache Spark™
    • Запуск PySpark-задания в Yandex Managed Service for YTsaurus

В этой статье:

  • Необходимые платные ресурсы
  • Подготовьте кластер-источник
  • Подготовьте кластер-приемник
  • Подготовьте и активируйте трансферы
  • Переключитесь на работу с новым кластером
  • Проверьте перенос данных
  • Удалите созданные ресурсы
  1. Построение Data Platform
  2. Миграция кластера Managed Service for PostgreSQL на другую версию

Миграция кластера Yandex Managed Service for PostgreSQL на другую версию c помощью Yandex Data Transfer

Статья создана
Yandex Cloud
Обновлена 16 февраля 2026 г.
  • Необходимые платные ресурсы
  • Подготовьте кластер-источник
  • Подготовьте кластер-приемник
  • Подготовьте и активируйте трансферы
  • Переключитесь на работу с новым кластером
  • Проверьте перенос данных
  • Удалите созданные ресурсы

Вы можете перенести продуктивную нагруженную базу данных, развернутую в кластере Managed Service for PostgreSQL, в кластер со старшей версией. В этом руководстве рассматривается пример переноса с версии 13 сразу на версию 17, без последовательного переноса между несколькими версиями (13 → 14 → 15 → 16 → 17).

Чтобы перенести данные:

  1. Подготовьте кластер-источник.
  2. Подготовьте кластер-приемник.
  3. Подготовьте и активируйте трансферы.
  4. Переключитесь на работу с новым кластером.
  5. Проверьте перенос данных.

Если созданные ресурсы вам больше не нужны, удалите их.

Необходимые платные ресурсыНеобходимые платные ресурсы

  • Кластер PostgreSQL: выделенные хостам вычислительные ресурсы, объем хранилища и резервных копий (см. тарифы PostgreSQL).
  • Публичные IP-адреса, если для хостов кластера включен публичный доступ (см. тарифы Virtual Private Cloud).
  • Каждый трансфер: использование вычислительных ресурсов и количество переданных строк данных (см. тарифы Data Transfer).

Подготовьте кластер-источникПодготовьте кластер-источник

  1. Подготовьте базу-источник к миграции в соответствии с рекомендациями.

  2. Оцените нагрузку на базу данных. Если она превышает 10 000 операций на запись в секунду, запланируйте несколько трансферов:

    1. Определите список особо нагруженных таблиц.
    2. Распределите таблицы между несколькими трансферами.

Подготовьте кластер-приемникПодготовьте кластер-приемник

  1. Создайте кластер-приемник Managed Service for PostgreSQL:

    Вручную
    С помощью Terraform

    Создайте кластер-приемник Managed Service for PostgreSQL с конфигурацией, идентичной кластеру-источнику, и со следующими настройками:

    • Версия кластера — 17.
    • Имя базы данных — db1.
    • Имя пользователя — user1.

    Если вы планируете подключаться к кластеру из интернета, включите публичный доступ к хостам кластера.

    1. Если у вас еще нет Terraform, установите его.

    2. Получите данные для аутентификации. Вы можете добавить их в переменные окружения или указать далее в файле с настройками провайдера.

    3. Настройте и инициализируйте провайдер. Чтобы не создавать конфигурационный файл с настройками провайдера вручную, скачайте его.

    4. Поместите конфигурационный файл в отдельную рабочую директорию и укажите значения параметров. Если данные для аутентификации не были добавлены в переменные окружения, укажите их в конфигурационном файле.

    5. В той же рабочей директории разместите файл с расширением .tf и содержимым:

      resource "yandex_mdb_postgresql_cluster" "old" { }
      
    6. Запишите идентификатор кластера PostgreSQL версии 13 в переменную окружения:

      export POSTGRESQL_CLUSTER_ID=<идентификатор_кластера>
      

      Идентификатор можно запросить вместе со списком кластеров в каталоге.

    7. Импортируйте настройки кластера PostgreSQL версии 13 в конфигурацию Terraform:

      terraform import yandex_mdb_postgresql_cluster.old ${POSTGRESQL_CLUSTER_ID}
      
    8. Получите импортированную конфигурацию:

      terraform show
      
    9. Скопируйте ее из терминала и вставьте в файл с расширением .tf.

    10. Расположите файл в новой директории imported-cluster.

    11. Измените скопированную конфигурацию так, чтобы из нее можно было создать новый кластер:

      • Укажите новое имя кластера в строке resource и параметре name.
      • В блоке config укажите в параметре version версию 17.
      • Удалите параметры created_at, health, id и status.
      • В блоках host удалите параметры fqdn, role и priority.
      • Если в блоке disk_size_autoscaling указано значение параметра disk_size_limit = 0, удалите этот блок.
      • Если в блоке maintenance_window указано значение параметра type = "ANYTIME", удалите параметр hour.
      • (Опционально) Внесите дополнительные изменения, если вам нужна не идентичная, а кастомизированная копия кластера.
    12. Добавьте в файл ресурс для создания пользователя user1:

      resource "yandex_mdb_postgresql_user" "user1" {
        cluster_id = yandex_mdb_postgresql_cluster.<имя_кластера>.id
        name       = "user1"
        password   = "<пароль_пользователя>"
      }
      

      Где <имя_кластера> — новое имя кластера, указанное в ресурсе yandex_mdb_postgresql_cluster.

    13. Добавьте в файл ресурс для создания базы данных:

      resource "yandex_mdb_postgresql_database" "db1" {
        cluster_id = yandex_mdb_postgresql_cluster.<имя_кластера>.id
        name       = "db1"
        owner      = yandex_mdb_postgresql_user.user1.name
        depends_on = [yandex_mdb_postgresql_user.user1]
      }
      

      Где <имя_кластера> — новое имя кластера, указанное в ресурсе yandex_mdb_postgresql_cluster.

    14. В директории imported-cluster получите данные для аутентификации.

    15. В этой же директории настройте и инициализируйте провайдер. Чтобы не создавать конфигурационный файл с настройками провайдера вручную, скачайте его.

    16. Поместите конфигурационный файл в директорию imported-cluster и укажите значения параметров. Если данные для аутентификации не были добавлены в переменные окружения, укажите их в конфигурационном файле.

    17. Проверьте корректность файлов конфигурации Terraform:

      terraform validate
      

      Если в файлах конфигурации есть ошибки, Terraform на них укажет.

    18. Создайте необходимую инфраструктуру:

      1. Выполните команду для просмотра планируемых изменений:

        terraform plan
        

        Если конфигурации ресурсов описаны верно, в терминале отобразится список изменяемых ресурсов и их параметров. Это проверочный этап: ресурсы не будут изменены.

      2. Если вас устраивают планируемые изменения, внесите их:

        1. Выполните команду:

          terraform apply
          
        2. Подтвердите изменение ресурсов.

        3. Дождитесь завершения операции.

      В указанном каталоге будут созданы все требуемые ресурсы. Проверить появление ресурсов и их настройки можно в консоли управления.

    Ограничения по времени

    Провайдер Terraform ограничивает время на выполнение операций с кластером Managed Service for PostgreSQL:

    • создание, в том числе путем восстановления из резервной копии, — 30 минут;
    • изменение — 60 минут;
    • удаление — 15 минут.

    Операции, длящиеся дольше указанного времени, прерываются.

    Как изменить эти ограничения?

    Добавьте к описанию кластера блок timeouts, например:

    resource "yandex_mdb_postgresql_cluster" "<имя_кластера>" {
      ...
      timeouts {
        create = "1h30m" # Полтора часа
        update = "2h"    # 2 часа
        delete = "30m"   # 30 минут
      }
    }
    
  2. Если вы используете группы безопасности в кластере, убедитесь, что они настроены правильно и допускают подключение к нему.

  3. Подготовьте базу-приемник к миграции в соответствии с рекомендациями.

Подготовьте и активируйте трансферыПодготовьте и активируйте трансферы

Вручную
С помощью Terraform
  1. Создайте эндпоинт-источник для каждого запланированного трансфера и укажите параметры эндпоинта:

    • Тип базы данных — PostgreSQL.
    • Тип подключения — Ручная настройка.
    • Тип инсталляции — Кластер Managed Service for PostgreSQL.
    • Кластер управляемой БД — <имя_кластера-источника> из выпадающего списка.
    • База данных — <имя_базы_данных_кластера-источника>.
    • Пользователь — <имя_пользователя>.
    • Пароль — <пароль>.
    • Список включенных таблиц — для каждого эндпоинта укажите список включенных таблиц в соответствии с планом распределения по трансферам.

    Убедитесь, что в блоке Перенос схемы для внешних ключей и индексов установлено значение После переноса данных. В этом случае перенос внешних ключей и индексов будет выполняться на этапе деактивации трансферов.

  2. Создайте эндпоинт-приемник для каждого запланированного трансфера и укажите параметры эндпоинта:

    • Тип базы данных — PostgreSQL.
    • Тип подключения — Ручная настройка.
    • Тип инсталляции — Кластер Managed Service for PostgreSQL.
    • Кластер управляемой БД — db1 из выпадающего списка.
    • Пользователь — user1.
    • Пароль — <пароль>.
  3. Создайте трансферы типа Копирование и репликация, использующие созданные эндпоинты.

    Чтобы ускорить копирование больших таблиц (более 100 ГБ), настройте параллельное копирование для трансфера, указав нужное количество воркеров и потоков.

    Таблица разделится на указанное количество частей, которые будут копироваться параллельно.

  4. Активируйте трансферы.

  1. Откройте в папке imported-cluster конфигурационный файл Terraform с планом инфраструктуры.

  2. Добавьте в файл ресурс для создания эндпоинта-источника.

    resource "yandex_datatransfer_endpoint" "<имя_эндпоинта>" {
      name = "<имя_эндпоинта>"
        settings {
          postgres_source {
            connection {
              mdb_cluster_id = "<идентификатор_кластера-источника>"
            }
            database = "<имя_базы_данных>"
            user     = "<имя_пользователя>"
            password {
              raw = "<пароль>"
            }
            include_tables = ["<схема>.<таблица_1>", ... , "<схема>.<таблица_N>"]
            object_transfer_settings {
              fk_constraint = "AFTER_DATA"
              index         = "AFTER_DATA"
            }
          }
        }
    }
    

    Если вы запланировали несколько трансферов, добавьте отдельный эндпоинт для каждого из них. Для каждого эндпоинта-источника укажите в параметре include_tables список включенных таблиц в соответствии с планом распределения по трансферам.

    В блоке object_transfer_settings определены параметры переноса схемы. Значение AFTER_DATA означает, что внешние ключи и индексы будут переноситься после переноса данных (на этапе деактивации трансферов).

  3. Добавьте в файл ресурс для создания эндпоинта-приемника.

    resource "yandex_datatransfer_endpoint" "<имя_эндпоинта>" {
      name = "<имя_эндпоинта>"
        settings {
          postgres_target {
            connection {
              mdb_cluster_id = yandex_mdb_postgresql_cluster.<имя_кластера>.id
            }
            database = "db1"
            user     = "user1"
            password {
              raw = "<пароль>"
            }
          }
        }
    }
    

    Где <имя_кластера> — имя кластера, указанное в ресурсе yandex_mdb_postgresql_cluster.

    Если вы запланировали несколько трансферов, добавьте отдельный эндпоинт для каждого из них.

  4. Добавьте в файл ресурс для создания трансфера, использующего созданные эндпоинты.

    resource "yandex_datatransfer_transfer" "<имя_трансфера>" {
      name      = "<имя_трансфера>"
      source_id = yandex_datatransfer_endpoint.<имя_эндпоинта-источника>.id
      target_id = yandex_datatransfer_endpoint.<имя_эндпоинта-приемника>.id
      type      = "SNAPSHOT_AND_INCREMENT"
      runtime {
        yc_runtime {
          upload_shard_params {
            job_count     = <количество_воркеров>
            process_count = <количество_потоков>
          }
        }
      }
    }
    

    Где:

    • source_id — ссылка на эндпоинт-источник.

    • target_id — ссылка на эндпоинт-приемник.

    • type — тип трансфера. Значение SNAPSHOT_AND_INCREMENT — Копирование и репликация.

    • runtime.yc_runtime.upload_shard_params — настройки параллельного копирования. Используются, чтобы ускорить копирование больших таблиц (более 100 ГБ).

      • job_count — количество воркеров.
      • process_count — количество потоков.

    Если вы распределили таблицы между несколькими парами эндпоинтов, создайте отдельный трансфер для каждой из них.

    Трансферы будут запущены автоматически после создания.

Переключитесь на работу с новым кластеромПереключитесь на работу с новым кластером

  1. Дождитесь перехода трансферов в статус Реплицируется.

  2. Снимите пишущую нагрузку с кластера-источника.

  3. На странице мониторинга трансфера дождитесь снижения до нуля характеристики Maximum data transfer delay для каждого трансфера. Это значит, что в кластер-приемник перенесены все изменения, произошедшие в кластере-источнике после завершения копирования данных.

  4. Переключите нагрузку на кластер-приемник.

  5. Деактивируйте трансферы и дождитесь их перехода в статус Остановлен.

    Во время деактивации выполняется создание внешних ключей и индексов. Это может занять продолжительное время. Чем больший объем занимает база данных, тем больше времени занимает деактивация.

Проверьте перенос данныхПроверьте перенос данных

  1. Подключитесь к базе данных db1 в кластере-приемнике Managed Service for PostgreSQL.

  2. Убедитесь, что в базе данных db1 появились таблицы, выполнив запрос:

    SELECT schemaname AS schema, tablename AS table_name
    FROM pg_tables
    WHERE schemaname NOT IN ('pg_catalog', 'information_schema') 
      AND tablename NOT LIKE 'pg\_%'
    ORDER BY schemaname, tablename;
    

    Запрос выведет список всех несистемных таблиц.

Удалите созданные ресурсыУдалите созданные ресурсы

Некоторые ресурсы платные. Удалите ресурсы, которые вы больше не будете использовать, чтобы не платить за них:

Вручную
С помощью Terraform
  1. Удалите трансфер.
  2. Удалите эндпоинты.
  3. Удалите кластер Managed Service for PostgreSQL версии 17.
  1. В терминале перейдите в директорию с планом инфраструктуры.

    Важно

    Убедитесь, что в директории нет Terraform-манифестов с ресурсами, которые вы хотите сохранить. Terraform удаляет все ресурсы, которые были созданы с помощью манифестов в текущей директории.

  2. Удалите ресурсы:

    1. Выполните команду:

      terraform destroy
      
    2. Подтвердите удаление ресурсов и дождитесь завершения операции.

    Все ресурсы, которые были описаны в Terraform-манифестах, будут удалены.

Была ли статья полезна?

Предыдущая
Миграция БД из Managed Service for PostgreSQL
Следующая
Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Data Transfer
Создавайте контент и получайте гранты!Готовы написать своё руководство? Участвуйте в контент-программе и получайте гранты на работу с облачными сервисами!
Подробнее о программе
Проект Яндекса
© 2026 ООО «Яндекс.Облако»