Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Истории успеха
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Доступны в регионе
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • ИИ для бизнеса
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Партнёрская программа
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Истории успеха
  • Документация
  • Блог
Проект Яндекса
© 2025 ТОО «Облачные Сервисы Казахстан»
Yandex Managed Service for Apache Spark™
  • Начало работы
    • Взаимосвязь ресурсов сервиса
    • Квоты и лимиты
    • Классы хостов
    • Автоматическое масштабирование
  • Управление доступом
  • Правила тарификации
  • Метрики Yandex Monitoring
  • Справочник Terraform
  • История изменений

В этой статье:

  • Понятия и сущности
  • Пулы хостов
  • Задание
  • Параллелизм и автомасштабирование
  1. Концепции
  2. Взаимосвязь ресурсов сервиса

Взаимосвязь ресурсов в Yandex Managed Service for Apache Spark™

Статья создана
Yandex Cloud
Обновлена 19 сентября 2025 г.
  • Понятия и сущности
    • Пулы хостов
  • Задание
  • Параллелизм и автомасштабирование

Yandex Managed Service for Apache Spark™ — это управляемый сервис для развертывания кластеров Apache Spark™ и запуска Spark/PySpark-заданий в инфраструктуре Yandex Cloud.

Yandex Managed Service for Apache Spark™ позволяет:

  • Разворачивать кластеры Apache Spark™ и управлять ими через консоль управления, Terraform и API без необходимости вручную администрировать кластеры и виртуальные машины.
  • Конфигурировать пул хостов для драйверов и пул хостов для исполнителей независимо друг от друга.
  • Запускать задания на Python, Scala и Java, гибко управляя их настройками.
  • Декларативно определять зависимости заданий, включая Pip-, Deb- и Maven-пакеты.
  • Следить за ходом выполнения заданий в веб-интерфейсе Spark-приложений и анализировать результаты с помощью логов в Yandex Cloud Logging и Spark History Server.
  • Выгружать результаты выполнения заданий в Object Storage, базы данных и аналитические витрины.
  • Подключать Apache Hive™ Metastore в конфигурации кластера или в параметрах задания.
  • Задавать предпочтительный день недели и время для технического обслуживания кластера.

Понятия и сущностиПонятия и сущности

Основная сущность, которой оперирует сервис Yandex Managed Service for Apache Spark™, — кластер Apache Spark™.

При запуске в кластере задания создается приложение Spark. Приложение включает в себя следующие процессы:

  • Драйвер — управляющий процесс, который строит план задания, разбивает работу на стадии и задачи, следит за очередью задач, а также запрашивает создание исполнителей и освобождает их.
  • Исполнители — процессы, отвечающие за выполнение отдельных задач в рамках задания.

Пулы хостовПулы хостов

Кластер Apache Spark™ состоит из трех групп хостов (пулов):

  • Пул хостов для драйверов — служит для запуска драйверов и ряда служебных компонентов (работа с сетью, логами, метриками и т. д.).

  • Пул хостов для исполнителей — служит для запуска исполнителей и некоторых служебных компонентов.

  • Вспомогательный пул — служит для запуска Spark History Server и других системных компонентов.

Пул хостов для драйверов и пул хостов для исполнителей можно конфигурировать, задавая количество хостов в каждом пуле и их класс. Количество хостов в каждом из двух пулов может быть фиксированным или изменяться динамически. Конфигурирование пулов выполняется при создании или изменении кластера Apache Spark™.

ЗаданиеЗадание

Задание — это спецификация запуска приложения Spark на выбранном кластере Apache Spark™.

В задание входят:

  • Целевой кластер Apache Spark™.

    Примечание

    Часть конфигурации кластера задает параметры задания по умолчанию и может быть переопределена на уровне задания. Не могут быть переопределены: сетевые настройки, сервисный аккаунт, Deb-пакеты, использование Spark History Server и настройки логирования.

  • Тип задания — Spark для Java и Scala или PySpark для Python.

  • Исполняемый модуль и точка входа — JAR-файл и основной класс для задания типа Spark или PY-файл для задания типа PySpark.

  • Аргументы запуска.

  • Свойства Spark — ресурсы запуска, параметры динамической аллокации и параллелизма, SQL-параметры и т. д.

  • Библиотеки и файлы — JAR-файлы, Maven-пакеты, дополнительные файлы и архивы.

Параллелизм и автомасштабированиеПараллелизм и автомасштабирование

На одном хосте для драйверов может одновременно выполняться одно или несколько заданий. Точное число зависит от:

  • класса хостов для драйверов, то есть объема памяти и количества ядер у одного хоста;
  • объема ресурсов, которые запрашивает каждое задание;
  • объема зарезервированных под внутренние нужды ресурсов хоста.

При этом число хостов для драйверов может:

  • быть фиксированным, если автомасштабирование хостов для драйверов выключено;
  • изменяться динамически в зависимости от количества свободных ядер и объема свободной памяти, если автомасштабирование хостов для драйверов включено.

Таким образом, количество заданий, которые могут одновременно выполняться на кластере Apache Spark™, зависит от следующих факторов:

  • заданного числа хостов для драйверов или настроек автомасштабирования;
  • класса хостов;
  • параметров каждого задания;
  • объема зарезервированных под внутренние нужды ресурсов.

Была ли статья полезна?

Предыдущая
Использование Yandex Object Storage в Managed Service for Apache Spark™
Следующая
Квоты и лимиты
Проект Яндекса
© 2025 ТОО «Облачные Сервисы Казахстан»