Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Истории успеха
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • ИИ для бизнеса
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Калькулятор цен
    • Тарифы
    • Промоакции и free tier
    • Правила тарификации
  • Истории успеха
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Yandex AI Studio
  • Начало работы с Model Gallery
    • О сервисе Yandex AI Studio
    • Yandex Workflows
    • Квоты и лимиты
    • Термины и определения
  • Переход с AI Assistant API на Responses API
  • Совместимость с OpenAI
      • Обзор
      • Рекомендации по использованию YandexGPT
        • Обзор
        • Zero-shot
        • Few-shot
        • Chain-of-Thought
        • Self-consistency
  • Управление доступом
  • Правила тарификации
  • Аудитные логи Audit Trails
  • Публичные материалы
  • История изменений
  1. Промптинг
  2. Как создавать промпты
  3. Техники
  4. Few-shot

Промптинг Few-Shot

Статья создана
Yandex Cloud
Обновлена 20 ноября 2025 г.

Хотя крупные языковые модели демонстрируют отличные способности в режиме Zero-shot, они все еще не справляются со сложными задачами. Промптинг Few-shot промптинг можно использовать как технику для обучения в контексте, где для повышения качества результатов модели предоставляются примеры, на которых она обучается.

Согласно Touvron et al. 2023, свойства Few-shot впервые появились, когда модели были масштабированы до достаточного размера (Kaplan et al., 2020).

Рассмотрим пример из работы Brown et al. 2020, в котором задача заключается в правильном использовании нового слова в предложении:

Промпт

"Котопес" — это мифическое существо, которое является наполовину котом, наполовину собакой. Пример предложения, использующего слово "котопес":
Мы гуляли по лесу и увидели странного котопса.

"Фырчать" означает издавать короткие, резкие звуки. Пример предложения, использующего слово "фырчать":

Ответ

Когда мы подошли ближе, котопес начал фырчать на нас.

Модель научилась выполнять задачу, хотя имела всего один пример (т.е. 1-shot). Для более сложных задач можно экспериментировать с увеличением количества примеров (например, 3-shot, 5-shot, 10-shot и т.д.).

Из работы Min et al. (2022) следует, что для составления промптов Few-shot важны даже случайные, неправильные примеры.

Рассмотрим промпт с неправильными примерами, в котором метки «Негативный» и «Позитивный» случайным образом присваиваются входным данным:

Промпт

Это потрясающе! // Негативный
Это плохо! // Позитивный
Вау, этот фильм был классный! // Позитивный
Какое ужасное шоу! //

Ответ

Негативный

Мы все равно получаем верный ответ и формат, хотя метки были случайными. Также эксперименты подтверждают, что новые модели YandexGPT становятся более устойчивыми к формату входных данных:

Промпт

Позитивный Это потрясающе! 
Это плохо! Негативный
Вау, этот фильм был классный!
Позитивный
Какое ужасное шоу! --

Ответ

Негативный

Каждый пример из промпта имеет разный формат, но модель все равно указала правильную метку. Однако, для сложных задач и разных вариаций промптов требуется более тщательный анализ.

Примечание

При использовании промптов Few-shot в слишком сложных задачах модель может переобучиться. Это значит, что она случайным образом запомнит ответ на какой-либо вопрос и будет отвечать так в любых ситуациях.

Ограничения промптов Few-shotОграничения промптов Few-shot

Стандартный промптинг Few-shot хорошо работает для многих задач, но все же не является идеальной техникой, особенно при работе со сложными задачами, требующими рассуждений. Рассмотрим пример из арифметики:

Промпт

Нечетные числа в этой группе складываются в четное число: 15, 32, 5, 13, 82, 7, 1. 

Ответ: 

Ответ

Да, нечетные числа в этой группе складываются в 107, что является четным числом.

Добавим несколько примеров, чтобы увидеть, улучшит ли результаты Few-shot-промпт:

Промпт

Нечетные числа в этой группе складываются в четное число: 4, 8, 9, 15, 12, 2, 1.
Ответ: Ответ — Ложь.

Нечетные числа в этой группе складываются в четное число: 17, 10, 19, 4, 8, 12, 24.
Ответ: Ответ — Правда.

Нечетные числа в этой группе складываются в четное число: 16, 11, 14, 4, 8, 13, 24.
Ответ: Ответ — Правда.

Нечетные числа в этой группе складываются в четное число: 17, 9, 10, 12, 13, 4, 2.
Ответ: Ответ — Ложь.

Нечетные числа в этой группе складываются в четное число: 15, 32, 5, 13, 82, 7, 1. 
Ответ: 

Ответ

Ответ — Правда.

Это неверный ответ. Кажется, что промпта Few-shot недостаточно, чтобы получить надежный результат в задачах рассуждения. Техника CoT справляется с такими задачами лучше.

Если промптов Zero-shot и Few-shot недостаточно, возможно, модель не обладает достаточными знаниями для решения задачи. В этом случае рекомендуем попробовать дообучить модель или поэкспериментировать с другими техниками промптинга.

См. такжеСм. также

  • Промптинг Chain-of-Thought (CoT)
  • Самосогласованность
  • Дообучение моделей

Была ли статья полезна?

Предыдущая
Zero-shot
Следующая
Chain-of-Thought
Проект Яндекса
© 2025 ООО «Яндекс.Облако»