Мониторинг состояния Spark-приложений
Чтобы оценить работу Spark-приложений в кластере Yandex Managed Service for Apache Spark™, вы можете проверить:
- подробную информацию о приложении;
- подробную информацию о стадиях;
- выделенные для приложения ресурсы;
- кешируемые таблицы;
- список и планы SQL-запросов.
Проверить подробную информацию о приложении
-
Перейдите на страницу каталога
. -
Перейдите в сервис Managed Service for Apache Spark.
-
Нажмите на имя нужного кластера.
-
В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке.
Откроется список завершенных приложений. Чтобы перейти к списку запущенных приложений, внизу таблицы нажмите Show incomplete applications.
-
Найдите нужное приложение и перейдите по ссылке в столбце App ID.
Откроется окно интерфейса Spark History Server, вкладка Jobs с подробной информацией о выбранном приложении:
- Event Timeline — история выполнения заданий в виде диаграммы. На диаграмме отображены отметки о выделении и освобождении исполнителей (executors), статусы заданий.
- Active Jobs — список заданий, которые выполняются либо ожидают начала выполнения.
- Completed Jobs — список завершенных заданий.
Для каждого задания в таблице указаны:
- время запуска (Submitted);
- продолжительность выполнения (Duration);
- количество стадий — завершенных/всего (Stages: Succeeded/Total);
- количество операций — завершенных/всего (Tasks (for all stages): Succeeded/Total).
Проверить подробную информацию о стадиях
-
Перейдите на страницу каталога
. -
Перейдите в сервис Managed Service for Apache Spark.
-
Нажмите на имя нужного кластера.
-
В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке. Откроется окно интерфейса Spark History Server.
-
В верхнем меню перейдите в раздел Stages.
В интерфейсе представлена таблица Completed Stages со списком всех стадий задания. Для каждой стадии указаны:
- время запуска (Submitted);
- продолжительность выполнения (Duration);
- количество операций — завершенных/всего (Tasks: Succeeded/Total);
- объем данных shuffle (Shuffle Read/Write);
- объем прочитанных и записанных данных (Input/Output).
Чтобы получить детальную информацию о стадии, нажмите на текст в столбце Description. На странице Details for Stage отображаются:
- DAG Visualization — визуализация графа выполнения;
- Event Timeline — история выполнения стадии в виде диаграммы с различными показателями;
- сводные метрики операций:
- Duration — продолжительность выполнения;
- GC Time — время сборки мусора;
- Input Size/Records — объем входных и записанных данных.
- Aggregated Metrics by Executor — метрики по исполнителю;
- Tasks — таблица с информацией по операциям.
Проверить выделенные для приложения ресурсы
-
Перейдите на страницу каталога
. -
Перейдите в сервис Managed Service for Apache Spark.
-
Нажмите на имя нужного кластера.
-
В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке. Откроется окно интерфейса Spark History Server.
-
В верхнем меню перейдите в раздел Executors.
В интерфейсе представлены две таблицы:
- Summary — обобщенная информация о количестве и состоянии исполнителей и используемых ресурсах.
- Executors — информация по каждому исполнителю.
В таблицах приведено:
- количество доступных для каждого исполнителя ресурсов;
- количество выполняемых и завершенных операций (tasks);
- продолжительность выполнения операции (Task Time) с указанием времени, затраченного на сборку мусора (GC Time).
Совет
Если сборка мусора занимает много времени:
- Убедитесь, что исполнителю выделяется достаточно оперативной памяти.
- Настройте сборщик мусора вручную. Как это сделать см. в документации Apache Spark
.
Проверить кешируемые таблицы
-
Перейдите на страницу каталога
. -
Перейдите в сервис Managed Service for Apache Spark.
-
Нажмите на имя нужного кластера.
-
В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке. Откроется окно интерфейса Spark History Server.
-
В верхнем меню перейдите в раздел Storage.
В интерфейсе представлен список кешируемых таблиц (RDDs
). Для каждой таблицы приведена информация об используемой оперативной памяти и занимаемом дисковом пространстве, а также прогресс кеширования.Чтобы посмотреть детальную статистику, нажмите на имя таблицы.
Проверить список и планы SQL-запросов
-
Перейдите на страницу каталога
. -
Перейдите в сервис Managed Service for Apache Spark.
-
Нажмите на имя нужного кластера.
-
В блоке Дополнительные настройки выберите Spark History Server и перейдите по ссылке. Откроется окно интерфейса Spark History Server.
-
В верхнем меню перейдите в раздел SQL/DataFrame.
В таблице представлен список выполненных SQL-запросов с информацией о времени запуска и продолжительности их выполнения.
Чтобы получить план выполнения запроса, нажмите на текст запроса в столбце Description. План выполнения представлен в виде схемы. Чтобы увидеть текстовый вариант плана, нажмите Details в нижней части рисунка.
На плане запроса приведена статистика для каждого оператора, которая отражает количество завершенных операций (tasks) и продолжительность их выполнения. Если запрос еще выполняется, отобразится статистика на текущий момент.