Ввели в эксплуатацию ru‑central1‑e  — зону доступности на базе нового дата‑центра Яндекса

В сентябре 2025 года мы анонсировали запуск новой зоны доступности ru‑central1‑e, а теперь вводим её в эксплуатацию. Она расширяет мощности платформы и открывает новые возможности для построения отказоустойчивых и высокопроизводительных решений.

По результатам нагрузочных измерений. В случае полной утилизации сети на ВМ задержка может возрастать.

Новая зона доступности — полноценный дата‑центр с независимой системой питания и сети. Её ключевые характеристики:

  • Расположение рядом с зоной ru‑central1‑a обеспечивает минимальную задержку передачи данных (менее 1 мс).
  • Мощность — 40 МВт, 2,8 тыс. стоек.
  • Пропускная способность — 25,6 Тб/сек.
  • Энергоэффективность: средний показатель PUE — 1,1 (на 27% ниже мировых средних значений). Достичь такого результата позволила технология фрикулинга — охлаждения серверных стоек уличным воздухом круглый год.

Какие платформы доступны в ru‑central1‑e

Пользователи новой зоны могут подключать:

  • платформа прошлого поколения: standard‑v3;
  • новые платформы.

Новые платформы значительно превосходят предыдущие по производительности и vCPU. Они идеально подойдут для 1С, OLTP- и OLAP‑нагрузок, высокопроизводительных СУБД, приложений в реальном времени.

Сравнение платформ:

Платформа

Максимальное количество ядер (vCPU) на виртуальной машине

Максимальный объём RAM на виртуальной машине, ГБ

Максимальная производительность на ядро, %

standard‑v3

96

640

100

Новая платформа

288

1792

126

Платформа

Максимальное количество ядер (vCPU) на виртуальной машине

Максимальный объём RAM на виртуальной машине, ГБ

Максимальная производительность на ядро, %

highfreq‑v3

56

640

100

Новая платформа

80

960

121

По результатам нагрузочных измерений. В случае полной утилизации сети на ВМ задержка может возрастать.

Как новая зона улучшает работу с управляемыми базами данных

Низкая задержка между ru‑central1‑a и ru‑central1‑e (~1 мс) кардинально меняет возможности построения отказоустойчивых кластеров. Теперь можно создавать решения, которые работают практически как «в одном дата-центре», сохраняя сценарии высокой доступности и аварийного восстановления без роста задержки.

Основные преимущества:

  • Высокая доступность без заметного штрафа по задержкам. Синхронная или кворумная репликация «стоит» ~1 мс — подтверждение записи ускоряется.
  • Разнесение приложения и базы данных по зонам без ощущения «разных дата-центров». Если приложение находится в зоне A, а кластер «растянут» между A и E, доступ к базе данных выглядит почти как локальный.
  • Снижение потребности «отключать надёжность ради скорости». При задержке в 1 мс многие сценарии можно держать на безопасных настройках без потери производительности.
  • Более предсказуемые задержки. Меньше шансов, что кворумные подтверждения упрутся в таймауты на пиках нагрузки — кластеры стабильнее переживают всплески без каскадных эффектов.

Кроме того:

  • Кластер A‑E (мастер в зоне A, реплика в зоне E) быстрее кластера A‑D (реплика в зоне D) по всем метрикам записи.
  • Снижение задержки (latency):
    • p50 при write_update — на ~36% (35 мс против 55 мс);
    • p99 при write_update — на ~30% (115 мс против 165 мс).
  • Рост пропускной способности (QPS) при 128 потоках:
    • write_update — на ~33% (2000 против 1500 QPS);
    • write_insert — на ~37% (2000 против 1460 QPS);
    • mixed_rw — на ~25% (3500 против 2800 QPS).
  • Лучше масштабируется при росте нагрузки: при 128 потоках p50 растёт плавно (25 → 58 мс), у кластера A‑D — резче (45 → 79 мс).
  • Стабильнее по динамике задержек: у A‑E снижение задержки держится в диапазоне 60–65 мс, у A‑D — колеблется от 75 до 127 мс.
  • Меньше «медленных» запросов: кривая распределения задержек у A‑E левее, хвост (p99) короче.
  • Общий выигрыш по QPS — 25–45% в зависимости от нагрузки и уровня конкурентности.
Полноэкранное изображение

Тест выполнен на сетевых дисках (network-ssd). Значения — это среднее значение данного перцентиля по всем уровням нагрузки (16, 32, 64, 128 потоков).

Конкретные выгоды для разных СУБД

Yandex Managed Service for MySQL® и синхронная или кворумная репликации

  • Ускорение подтверждения транзакции за счёт меньшей задержки по времени между дата-центрами.
  • «Как в одном дата-центре». Раньше из‑за задержек приложение приходилось держать в одной зоне, и распределять хосты кластера по зонам было бессмысленно. Теперь вы можете повысить отказоустойчивость: разместить и приложение, и базы данных в разных зонах — если приложение поддерживает такую конфигурацию.
  • Больше свободы в топологии. Межзональная высокая доступность становится стандартом, а не премиум‑опцией.

Yandex StoreDoc

Раньше клиенты сталкивались с проблемой: при массовых записях с writeConcern: 1 реплики начинали отставать, а последующие запросы с writeConcern: majority падали по таймаутам. Это выглядело так, будто кластер недоступен на запись. Низкая межзональная задержка снижает мотивацию включать асинхронные подтверждения, которые ускоряют запись ценой надёжности. В результате повышается и доступность на запись, и устойчивость при отказах.

При задержке ~1 мс можно:

  • держать первичную и вторичную реплики в двух зонах (A–E);
  • писать с безопасным writeConcern (например, majority или в кворумном режиме);
  • получать скорость, близкую к «одному дата-центру», без задержки репликации и рисков для высокой доступности.

Кому особенно полезна новая зона

Пользователи, для которых критичны задержки, теперь могут:

  • уже имеющееся приложение в зоне А разнести и на зону E;
  • «растянуть» кластер базы данных между ними;
  • получить межзональную отказоустойчивость без заметной потери по задержкам.

Это снижает влияние отказов отдельных хостов, узлов или зоны: система остаётся работоспособной, а время ответа не выходит за приемлемые рамки.

Ввели в эксплуатацию ru‑central1‑e  — зону доступности на базе нового дата‑центра Яндекса
Войдите, чтобы сохранить пост