Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • AI Studio
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Истории успеха
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Yandex Data Processing
  • Начало работы
    • Взаимосвязь ресурсов сервиса
    • Среда исполнения
    • Интерфейсы и порты компонентов Yandex Data Processing
    • Задания в Yandex Data Processing
    • Задания Spark
    • Автоматическое масштабирование
    • Декомиссия подкластеров и хостов
    • Сеть в Yandex Data Processing
    • Техническое обслуживание
    • Квоты и лимиты
    • Хранилище в Yandex Data Processing
    • Свойства компонентов
    • Apache Iceberg™ в Yandex Data Processing
    • Delta Lake в Yandex Data Processing
    • Логи в Yandex Data Processing
    • Скрипты инициализации
  • Управление доступом
  • Правила тарификации
  • Справочник Terraform
  • Метрики Monitoring
  • Аудитные логи Audit Trails
  • Публичные материалы
  • Вопросы и ответы
  • Обучающие курсы
  1. Концепции
  2. Задания в Yandex Data Processing

Задания в Yandex Data Processing

Статья создана
Yandex Cloud
Обновлена 31 января 2025 г.

В кластере Yandex Data Processing можно создавать и выполнять задания (jobs). Это позволяет, например, на регулярной основе загружать набор данных из бакета Object Storage, использовать их в расчетах и формировать аналитику.

Поддерживаются задания следующих типов:

  • Hive,
  • MapReduce,
  • PySpark,
  • Spark.

При создании задания указываются:

  • Аргументы — значения, используемые основным исполняемым файлом задания.
  • Свойства — пары ключ:значение, задающие настройки компонентов образа.

Для размещения и запуска задания:

  • Воспользуйтесь интерфейсами Yandex Cloud. Подробнее см. в базовых примерах работы с заданиями.

  • Подключитесь напрямую к узлу кластера. Подробнее см. пример в разделе Запуск заданий с удаленных хостов, не входящих в кластер.

Для успешного выполнения задания:

  • Предоставьте доступ к нужным бакетам Object Storage для сервисного аккаунта кластера.

    Рекомендуется использовать минимум два бакета:

    • Бакет с правами только на чтение для хранения исходных данных и файлов, необходимых для запуска задания.
    • Бакет с правами на чтение и запись для хранения результатов выполнения заданий. Укажите его при создании кластера.
  • Передайте при создании задания все необходимые для его работы файлы.

Если в кластере достаточно вычислительных ресурсов, несколько созданных заданий будут выполняться параллельно. В противном случае из заданий будет сформирована очередь.

Логи заданийЛоги заданий

Логи заданий сохраняются в сервисе Yandex Cloud Logging. Подробнее см. в разделе Работа с логами.

Была ли статья полезна?

Предыдущая
Интерфейсы и порты компонентов Yandex Data Processing
Следующая
Задания Spark
Проект Яндекса
© 2025 ООО «Яндекс.Облако»