Yandex Cloud
Поиск
Связаться с намиПопробовать бесплатно
  • Кейсы
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
  • Marketplace
    • Доступны в регионе
    • Инфраструктура и сеть
    • Платформа данных
    • Искусственный интеллект
    • Безопасность
    • Инструменты DevOps
    • Бессерверные вычисления
    • Управление ресурсами
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Партнёрская программа
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Калькулятор цен
    • Тарифы
    • Акции и free tier
  • Кейсы
  • Документация
  • Блог
Создавайте контент и получайте гранты!Готовы написать своё руководство? Участвуйте в контент-программе и получайте гранты на работу с облачными сервисами!
Подробнее о программе
Проект Яндекса
© 2026 ТОО «Облачные Сервисы Казахстан»
Yandex Managed Service for Apache Spark™
  • Начало работы
    • Все инструкции
      • Мониторинг состояния кластера
      • Просмотр логов кластера
      • Мониторинг состояния Spark-приложений
      • Диагностика и примеры устранения проблем производительности Spark-приложений
  • Управление доступом
  • Правила тарификации
  • Метрики Yandex Monitoring
  • Аудитные логи Audit Trails
  • Справочник Terraform
  • История изменений

В этой статье:

  • Проверить подробную информацию о приложении
  • Проверить подробную информацию о стадиях
  • Проверить выделенные для приложения ресурсы
  • Проверить кешируемые таблицы
  • Проверить список и планы SQL-запросов
  1. Пошаговые инструкции
  2. Логи и мониторинг
  3. Мониторинг состояния Spark-приложений

Мониторинг состояния Spark-приложений

Статья создана
Yandex Cloud
Обновлена 26 февраля 2026 г.
  • Проверить подробную информацию о приложении
  • Проверить подробную информацию о стадиях
  • Проверить выделенные для приложения ресурсы
  • Проверить кешируемые таблицы
  • Проверить список и планы SQL-запросов

Чтобы оценить работу Spark-приложений в кластере Yandex Managed Service for Apache Spark™, вы можете проверить:

  • подробную информацию о приложении;
  • подробную информацию о стадиях;
  • выделенные для приложения ресурсы;
  • кешируемые таблицы;
  • список и планы SQL-запросов.

Проверить подробную информацию о приложенииПроверить подробную информацию о приложении

  1. Перейдите на страницу каталога.

  2. Перейдите в сервис Managed Service for Apache Spark.

  3. Нажмите на имя нужного кластера.

  4. В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке.

    Откроется список завершенных приложений. Чтобы перейти к списку запущенных приложений, внизу таблицы нажмите Show incomplete applications.

  5. Найдите нужное приложение и перейдите по ссылке в столбце App ID.

    Откроется окно интерфейса Spark History Server, вкладка Jobs с подробной информацией о выбранном приложении:

    • Event Timeline — история выполнения заданий в виде диаграммы. На диаграмме отображены отметки о выделении и освобождении исполнителей (executors), статусы заданий.
    • Active Jobs — список заданий, которые выполняются либо ожидают начала выполнения.
    • Completed Jobs — список завершенных заданий.

    Для каждого задания в таблице указаны:

    • время запуска (Submitted);
    • продолжительность выполнения (Duration);
    • количество стадий — завершенных/всего (Stages: Succeeded/Total);
    • количество операций — завершенных/всего (Tasks (for all stages): Succeeded/Total).

Проверить подробную информацию о стадияхПроверить подробную информацию о стадиях

  1. Перейдите на страницу каталога.

  2. Перейдите в сервис Managed Service for Apache Spark.

  3. Нажмите на имя нужного кластера.

  4. В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке. Откроется окно интерфейса Spark History Server.

  5. В верхнем меню перейдите в раздел Stages.

    В интерфейсе представлена таблица Completed Stages со списком всех стадий задания. Для каждой стадии указаны:

    • время запуска (Submitted);
    • продолжительность выполнения (Duration);
    • количество операций — завершенных/всего (Tasks: Succeeded/Total);
    • объем данных shuffle (Shuffle Read/Write);
    • объем прочитанных и записанных данных (Input/Output).

    Чтобы получить детальную информацию о стадии, нажмите на текст в столбце Description. На странице Details for Stage отображаются:

    • DAG Visualization — визуализация графа выполнения;
    • Event Timeline — история выполнения стадии в виде диаграммы с различными показателями;
    • сводные метрики операций:
      • Duration — продолжительность выполнения;
      • GC Time — время сборки мусора;
      • Input Size/Records — объем входных и записанных данных.
    • Aggregated Metrics by Executor — метрики по исполнителю;
    • Tasks — таблица с информацией по операциям.

Проверить выделенные для приложения ресурсыПроверить выделенные для приложения ресурсы

  1. Перейдите на страницу каталога.

  2. Перейдите в сервис Managed Service for Apache Spark.

  3. Нажмите на имя нужного кластера.

  4. В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке. Откроется окно интерфейса Spark History Server.

  5. В верхнем меню перейдите в раздел Executors.

    В интерфейсе представлены две таблицы:

    • Summary — обобщенная информация о количестве и состоянии исполнителей и используемых ресурсах.
    • Executors — информация по каждому исполнителю.

    В таблицах приведено:

    • количество доступных для каждого исполнителя ресурсов;
    • количество выполняемых и завершенных операций (tasks);
    • продолжительность выполнения операции (Task Time) с указанием времени, затраченного на сборку мусора (GC Time).

    Совет

    Если сборка мусора занимает много времени:

    • Убедитесь, что исполнителю выделяется достаточно оперативной памяти.
    • Настройте сборщик мусора вручную. Как это сделать см. в документации Apache Spark.

Проверить кешируемые таблицыПроверить кешируемые таблицы

  1. Перейдите на страницу каталога.

  2. Перейдите в сервис Managed Service for Apache Spark.

  3. Нажмите на имя нужного кластера.

  4. В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке. Откроется окно интерфейса Spark History Server.

  5. В верхнем меню перейдите в раздел Storage.

    В интерфейсе представлен список кешируемых таблиц (RDDs). Для каждой таблицы приведена информация об используемой оперативной памяти и занимаемом дисковом пространстве, а также прогресс кеширования.

    Чтобы посмотреть детальную статистику, нажмите на имя таблицы.

Проверить список и планы SQL-запросовПроверить список и планы SQL-запросов

  1. Перейдите на страницу каталога.

  2. Перейдите в сервис Managed Service for Apache Spark.

  3. Нажмите на имя нужного кластера.

  4. В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке. Откроется окно интерфейса Spark History Server.

  5. В верхнем меню перейдите в раздел SQL/DataFrame.

    В таблице представлен список выполненных SQL-запросов с информацией о времени запуска и продолжительности их выполнения.

    Чтобы получить план выполнения запроса, нажмите на текст запроса в столбце Description. План выполнения представлен в виде схемы. Чтобы увидеть текстовый вариант плана, нажмите Details в нижней части рисунка.

    На плане запроса приведена статистика для каждого оператора, которая отражает количество завершенных операций (tasks) и продолжительность их выполнения. Если запрос еще выполняется, отобразится статистика на текущий момент.

Была ли статья полезна?

Предыдущая
Просмотр логов кластера
Следующая
Диагностика и примеры устранения проблем производительности Spark-приложений
Создавайте контент и получайте гранты!Готовы написать своё руководство? Участвуйте в контент-программе и получайте гранты на работу с облачными сервисами!
Подробнее о программе
Проект Яндекса
© 2026 ТОО «Облачные Сервисы Казахстан»