Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Истории успеха
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • AI Studio
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Истории успеха
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Страница сервиса
Yandex Foundation Models
Документация
Yandex Foundation Models
  • Совместимость с OpenAI
      • Обзор
      • Рекомендации по использованию YandexGPT
        • Параметры LLM
        • Основы промтинга
        • Из чего состоит промт
        • Общие советы для создания промтов
        • Примеры промтов
  • Управление доступом
  • Правила тарификации
  • Аудитные логи Audit Trails
  • Публичные материалы
  • История изменений

В этой статье:

  • Температура
  • Максимальная длина
  1. Промтинг
  2. Как создавать промты
  3. Введение в инжиниринг промтов
  4. Параметры LLM

Параметры LLM

Статья создана
Yandex Cloud
Обновлена 5 сентября 2025 г.
  • Температура
  • Максимальная длина

Работа с LLM обычно происходит через API. При создании промтов может быть полезно настроить и протестировать несколько параметров, чтобы найти наиболее подходящие комбинации. Настройка этих параметров важна для улучшения стабильности и качества ответов. Вам потребуется провести несколько экспериментов, чтобы определить правильные настройки для решения ваших задач. Ниже приведены общие настройки, с которыми вы столкнетесь при использовании различных провайдеров LLM.

ТемператураТемпература

Температура (параметр temperature) определяет степень случайности в ответах модели. Чем ниже температура, тем более детерминированными будут результаты, так как всегда выбирается наиболее вероятный следующий токен. При низкой температуре вы с большой вероятностью будете получать одинаковые ответы на один и тот же вопрос. Увеличение температуры может привести к большей случайности, что способствует более разнообразным или креативным ответам. Также и повышается вероятность получить разные ответы на один и тот же вопрос.

На практике это означает, что для задач, требующих фактических и сжатых ответов, таких как вопросы и ответы на основе фактов, лучше использовать низкое значение температуры: 0 или 0.1. Для генерации стихов или других творческих задач может быть полезно увеличить значение температуры: 0.5, 0.9 или 1.

Максимальная длинаМаксимальная длина

Вы можете управлять количеством токенов, которые генерирует модель, регулируя максимальную длину ответа (параметр max_tokens). Указание максимальной длины помогает предотвратить длинные или нерелевантные ответы и контролировать затраты. Модель учитывает этот параметр и старается генерировать текст, не превышающий максимальной длины.

Примечание

Обратите внимание, что ответы моделей и результаты ваших экспериментов могут варьироваться в зависимости от версии используемой LLM.

Была ли статья полезна?

Предыдущая
Рекомендации по использованию YandexGPT
Следующая
Основы промтинга
Проект Яндекса
© 2025 ООО «Яндекс.Облако»