Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • Машинное обучение
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Истории успеха
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Yandex DataSphere
  • Начало работы
    • Все инструкции
      • Подключиться к JupyterLab из локальной IDE
      • Выбрать вычислительные ресурсы
      • Проверить загрузку GPU
      • Получить идентификатор ноутбука
      • Установить пакеты
      • Примеры кода в ноутбуке
      • Очистить вывод ячеек ноутбука
      • Работа с Git
      • Настроить создание ноутбуков по шаблону
    • Как перенести работу в новую версию
  • Справочник Terraform
  • Аудитные логи Audit Trails
  • Управление доступом
  • Правила тарификации
  • Публичные материалы
  • История изменений

В этой статье:

  • Перед началом работы
  • Проверить работу GPU
  • Проверить подключение с помощью TensorFlow
  • Проверить подключение с помощью nvidia-smi
  • Записать статистику использования GPU во время обучения модели
  • Пример записи статистики использования GPU
  1. Пошаговые инструкции
  2. DataSphere Notebook
  3. Проверить загрузку GPU

Проверить загрузку GPU

Статья создана
Yandex Cloud
Обновлена 13 сентября 2024 г.
  • Перед началом работы
  • Проверить работу GPU
    • Проверить подключение с помощью TensorFlow
    • Проверить подключение с помощью nvidia-smi
  • Записать статистику использования GPU во время обучения модели
  • Пример записи статистики использования GPU

В Yandex DataSphere доступны конфигурации вычислительных ресурсов с GPU.

Вы можете проверить работу, уровень загрузки и статистику потребления ресурсов GPU с помощью библиотеки TensorFlow и утилиты nvidia-smi.

Перед началом работы

Откройте проект DataSphere:

  1. Выберите нужный проект в своем сообществе или на главной странице DataSphere во вкладке Недавние проекты.

  2. Нажмите кнопку Открыть проект в JupyterLab и дождитесь окончания загрузки.
  3. Откройте вкладку с ноутбуком.

Проверить работу GPU

Проверить подключение с помощью TensorFlow

  1. Выберите необходимую конфигурацию GPU. В примере используется конфигурация g1.1.

  2. В ячейке введите следующий код:

    import tensorflow as tf
    
    
    tf.config.list_physical_devices('GPU')
    
  3. Выполните ячейку. Для этого нажмите значок .

  4. В результате отобразятся все используемые в ноутбуке GPU.

Проверить подключение с помощью nvidia-smi

  1. Выберите необходимую конфигурацию GPU. В примере используется конфигурация g1.1.

  2. В ячейке введите следующий код:

    #!:bash
    nvidia-smi
    
  3. Выполните ячейку. Для этого нажмите значок .

  4. В результате отобразится подробная информация о статусе GPU.

Записать статистику использования GPU во время обучения модели

  1. В ячейке введите следующий код:

    import subprocess
    
    with open("stdout.txt","wb") as out:
    proc = subprocess.Popen(["nvidia-smi", "dmon"], stdout=out, stderr=subprocess.STDOUT)
    
    <код_который_должен_потреблять_GPU>
    
    proc.terminate()
    proc.kill()
    

    В коде используется команда nvidia-smi dmon, которая ежесекундно собирает статистику работы GPU.

  2. Выполните ячейку. Для этого нажмите значок .

  3. В результате в директории модели появится файл stdout.txt с подробной статистикой работы GPU.

Пример записи статистики использования GPU

Воспользуйтесь готовой моделью для тестирования конфигураций GPU. При выполнении кода на конфигурациях g1.1 и g2.1 модель потребляет 18-25% ресурсов GPU. Данные можно посмотреть в столбце sm файла stdout.txt.

  1. В ячейке введите следующий код:

    import subprocess
    import tensorflow as tf
    import datetime
    
    mnist = tf.keras.datasets.mnist
    
    (x_train, y_train),(x_test, y_test) = mnist.load_data()
    x_train, x_test = x_train / 255.0, x_test / 255.0
    
    def create_model():
      return tf.keras.models.Sequential([
        tf.keras.layers.Flatten(input_shape=(28, 28)),
        tf.keras.layers.Dense(512, activation='relu'),
        tf.keras.layers.Dropout(0.2),
        tf.keras.layers.Dense(10, activation='softmax')
      ])
    
    with open("stdout.txt","wb") as out:
        proc = subprocess.Popen(["nvidia-smi", "dmon"], stdout=out, stderr=subprocess.STDOUT)
    
        model = create_model()
        model.compile(optimizer='adam',
                      loss='sparse_categorical_crossentropy',
                      metrics=['accuracy'])
        model.fit(x=x_train,
                  y=y_train,
                  epochs=5,
                  validation_data=(x_test, y_test))
        model = create_model()
        model.compile(optimizer='adam',
                      loss='sparse_categorical_crossentropy',
                      metrics=['accuracy'])
    
        proc.terminate()
        proc.kill()
    
  2. Выполните ячейку. Для этого нажмите значок .

  3. В результате в директории модели появится файл stdout.txt с подробной статистикой работы GPU.

Была ли статья полезна?

Предыдущая
Выбрать вычислительные ресурсы
Следующая
Получить идентификатор ноутбука
Проект Яндекса
© 2025 ООО «Яндекс.Облако»