Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • Машинное обучение
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Истории успеха
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Yandex DataSphere
  • Начало работы
  • Справочник Terraform
  • Аудитные логи Audit Trails
  • Управление доступом
  • Правила тарификации
  • Публичные материалы
  • История изменений
    • Проблемы с установкой библиотек
    • Ошибки при работе коннектора Spark
    • Вопросы и ответы
  1. Решение проблем
  2. Ошибки при работе коннектора Spark

Ошибки при работе коннектора Spark

Статья создана
Yandex Cloud
Обновлена 27 сентября 2024 г.

При работе со Spark в хранилище проекта создается скрытая папка .spark/, внутри которой находится служебная информация обо всех коннекторах Spark, доступных в проекте. Чтобы увидеть скрытые файлы и папки, на верхней панели интерфейса JupyterLab нажмите View ⟶ Show Hidden Files.

Spark-сессия создается до запуска первой ячейки ноутбука и доступна через переменную spark. Если при создании сессии произошла ошибка, переменная spark не будет доступна, а отчет об ошибке появится в файле вида .spark/connector/<идентификатор_коннектора>/session_creation_err_<время_ошибки>.txt. Приложите этот файл при обращении в поддержку.

Ошибка записи данных в S3Ошибка записи данных в S3

Если при записи данных в S3 возникла ошибка Could not find any valid local directory for s3ablock-0001, то в настройках коннектора Spark в блоке Настройки Spark добавьте один из параметров:

Параметр Описание
spark.hadoop.fs.s3a.fast.upload.buffer = bytebuffer Быстрая загрузка файлов с помощью RAM. Размер файла не должен превышать количество доступной оперативной памяти
spark.hadoop.fs.s3a.buffer.dir = /tmp Обычная загрузка на диск

Была ли статья полезна?

Предыдущая
Проблемы с установкой библиотек
Следующая
Вопросы и ответы
Проект Яндекса
© 2025 ООО «Яндекс.Облако»