Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • Машинное обучение
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Истории успеха
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Yandex DataSphere
  • Начало работы
    • Все инструкции
      • Аутентификация в DataSphere Jobs
      • Запустить задание DataSphere Jobs
      • Работа с заданиями из Visual Studio Code
      • Использование результатов работы выполненных заданий
      • Работа с сервисным агентом из задания
    • Как перенести работу в новую версию
  • Справочник Terraform
  • Аудитные логи Audit Trails
  • Управление доступом
  • Правила тарификации
  • Публичные материалы
  • История изменений

В этой статье:

  • Загрузка с помощью DataSphere CLI
  • Загрузка с помощью DAG Airflow
  1. Пошаговые инструкции
  2. DataSphere Jobs
  3. Использование результатов работы выполненных заданий

Использование результатов работы выполненных заданий

Статья создана
Yandex Cloud
Обновлена 14 ноября 2024 г.
  • Загрузка с помощью DataSphere CLI
  • Загрузка с помощью DAG Airflow

Иногда выходные данные задания нужно обработать или использовать для запуска другого задания. Для этого загрузите их с помощью функции DataSphere Jobs SDK download_job_files или подставьте в другое задание с помощью оператора DAG Airflow.

Загрузка с помощью DataSphere CLIЗагрузка с помощью DataSphere CLI

Если общий размер результатов задания превышает лимит на суммарный размер файлов, доступных для скачивания через DataSphere CLI, то будут скачаны только файлы с общим размером не больше этого лимита.

Чтобы загрузить результаты задания в рабочую директорию с помощью DataSphere CLI, выполните команду, подставив идентификатор задания:

Bash
datasphere project job download-files --id <идентификатор_задания>

У функции есть необязательные параметры:

  • with_logs — загрузка логов, false по умолчанию.
  • with_diagnostics — загрузка файлов диагностики, false по умолчанию.
  • output_dir — директория для загрузки файлов, рабочая директория по умолчанию.

Чтобы использовать загруженные данные в другом задании, укажите их в параметре input в файле config.yaml.

Загрузка с помощью DAG AirflowЗагрузка с помощью DAG Airflow

С помощью оператора DAG вы можете загрузить выходной файл одного задания (result.txt) и сделать его входным файлом (INPUT_DATA) другого:

Python
from typing import Dict

from airflow.decorators import dag, task
import pendulum

from datasphere import SDK

now = pendulum.now()

@dag(dag_id='output_files_for_other_job', start_date=now, schedule="@daily", catchup=False)
def run():
    @task(task_id='fork_job')
    def fork_job(files_job_id: str, fork_source_job_id: str):
        sdk = SDK()
        sdk.download_job_files(files_job_id)
        job = sdk.fork_job(fork_source_job_id, vars={'INPUT_DATA': 'result.txt'})
        job.wait()

    fork_job('<идентификатор_задания_для_загрузки>', '<идентификатор_запускаемого_задания>')

См. такжеСм. также

  • DataSphere CLI

Была ли статья полезна?

Предыдущая
Работа с заданиями из Visual Studio Code
Следующая
Работа с сервисным агентом из задания
Проект Яндекса
© 2025 ООО «Яндекс.Облако»