Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Истории успеха
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • ИИ для бизнеса
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Калькулятор цен
    • Тарифы
    • Промоакции и free tier
    • Правила тарификации
  • Истории успеха
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Yandex AI Studio
  • Начало работы с Model Gallery
    • О сервисе Yandex AI Studio
    • Yandex Workflows
    • Квоты и лимиты
    • Термины и определения
  • Переход с AI Assistant API на Responses API
  • Совместимость с OpenAI
      • Обзор
      • Рекомендации по использованию YandexGPT
        • Обзор
        • Zero-shot
        • Few-shot
        • Chain-of-Thought
        • Self-consistency
  • Управление доступом
  • Правила тарификации
  • Аудитные логи Audit Trails
  • Публичные материалы
  • История изменений

В этой статье:

  • Промптинг Zero-shot CoT
  • Промптинг Few-shot CoT
  • Автоматический Chain-of-Thought
  1. Промптинг
  2. Как создавать промпты
  3. Техники
  4. Chain-of-Thought

Промптинг Chain-of-Thought (CoT)

Статья создана
Yandex Cloud
Обновлена 20 ноября 2025 г.
  • Промптинг Zero-shot CoT
  • Промптинг Few-shot CoT
  • Автоматический Chain-of-Thought

Промптинг Chain-of-Thought (CoT), представленный в работе Wei et al. (2022), позволяет моделям типа YandexGPT выполнять сложные задачи, требующие промежуточных шагов рассуждения. На популярных бэнчмарках по школьной арифметике GSM8K и более сложных задачах MAWPS данный метод дает прирост в результатах 200% и 30%, соответственно. На данный момент методы промптинга Few-shot и Chain-of-Thought дают наибольший прирост в широком спектре задач и конкурируют друг с другом за лидерство среди простых методов промпт-инжиниринга.

Промптинг Zero-shot CoTПромптинг Zero-shot CoT

Промптинг Zero-shot CoT, представленный в работе Kojima et al. (2022), предполагает добавление фразы «Давайте подумаем шаг за шагом» к исходному промпту. Как видно из статьи, этот метод увеличивает точность ответов от -10% до +100%, в зависимости от разных бэнчмарков. Попробуем решить простую задачу:

Промпт

Я пошел на рынок и купил 10 яблок. Я отдал 2 яблока соседу и 2 ремонтнику. Затем я купил еще 5 яблок и съел 1. Сколько яблок у меня осталось?

Ответ

11 яблок

Ответ неверный. Попробуем использовать технику zero-shot CoT промптинга:

Промпт

Я пошел на рынок и купил 10 яблок. Я отдал 2 яблока соседу и 2 ремонтнику. Затем я купил еще 5 яблок и съел 1. Сколько яблок у меня осталось?

Давайте подумаем шаг за шагом.

Ответ

Сначала у вас было 10 яблок.
Вы отдали 2 яблока соседу и 2 ремонтнику, так что у вас осталось 6 яблок.
Затем вы купили еще 5 яблок, так что теперь у вас 11 яблок.
Наконец, вы съели 1 яблоко, так что у вас осталось 10 яблок.

Такая простая инструкция сильно повысила точность ответа. Это особенно полезно, когда у вас нет большого количества примеров для использования в промпте.

Промптинг Few-shot CoTПромптинг Few-shot CoT

Chain-of-Thought можно комбинировать с промптами Few-shot, чтобы улучшить результаты на сложных задачах. Рассмотрим простой арифметический пример:

Промпт

Нечетные числа в этой группе дают в сумме четное число: 4, 8, 9, 15, 12, 2, 1.
A: Сложив все нечетные числа (9, 15, 1), получаем 25. Ответ: Ложь.

Нечетные числа в этой группе дают в сумме четное число: 16, 11, 14, 4, 8, 13, 24.
A: Сложив все нечетные числа (11, 13), получаем 24. Ответ: Истина.

Нечетные числа в этой группе дают в сумме четное число: 17, 10, 19, 4, 8, 12, 24.
A: Сложив все нечетные числа (17, 19), получаем 36. Ответ: Истина.

Нечетные числа в этой группе дают в сумме четное число: 17, 9, 10, 12, 13, 4, 2.
A: Сложив все нечетные числа (17, 9, 13), получаем 39. Ответ: Ложь.

Нечетные числа в этой группе дают в сумме четное число: 15, 32, 13, 82, 7, 1.
A:

Ответ

Сложив все нечётные числа (15, 13, 7, 1), получаем 36. Ответ: Истина.

Мы видим, что результат идеален, когда мы предоставляем шаги рассуждения. На самом деле для решения этой задачи достаточно даже одного примера:

Промпт

Нечетные числа в этой группе дают в сумме четное число: 4, 8, 9, 15, 12, 2, 1.
A: Сложив все нечетные числа (9, 15, 1), получаем 25. Ответ: Ложь.

Нечетные числа в этой группе дают в сумме четное число: 15, 32, 5, 13, 82, 7, 1.
A:

Ответ

Сложив все нечетные числа (15, 5, 13, 7, 1), получаем 41. Ответ: Ложь.

Авторы техники утверждают, что такой способностью обладают только достаточно большие языковые модели.

Автоматический Chain-of-ThoughtАвтоматический Chain-of-Thought

Для эффективного промптинга Chain-of-Thought требуется ручное создание разнообразных примеров. Это большой труд, который может не окупиться. Авторы работы Zhang et al. (2022) предлагают подход, который устраняет ручные усилия, используя LLM с промптом «Давайте подумаем шаг за шагом» для генерации примеров цепочек рассуждений. Этот автоматический процесс все еще может приводить к ошибкам в сгенерированных цепочках, поэтому важно также разнообразие примеров.

Auto-CoT состоит из двух основных этапов:

  1. Кластеризация вопросов: разделение вопросов из заданного набора данных на несколько кластеров.
  2. Выбор примеров: выбор представительного вопроса из каждого кластера и генерация его цепочки рассуждений с использованием Zero-Shot-CoT с простыми эвристиками.

Простые эвристики могут включать длину вопросов (например, 60 токенов) и количество шагов в рассуждении (например, 5 шагов рассуждения). Это побуждает модель использовать простые и точные демонстрации.

Процесс проиллюстрирован ниже:

Код для Auto-CoT доступен на GitHub.

См. такжеСм. также

  • Режим рассуждений в генеративных моделях
  • Промптинг Few-Shot
  • Дообучение моделей

Была ли статья полезна?

Предыдущая
Few-shot
Следующая
Self-consistency
Проект Яндекса
© 2025 ООО «Яндекс.Облако»