Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Истории успеха
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • AI Studio
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Истории успеха
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Yandex SpeechKit
  • Обзор технологий SpeechKit
    • О технологии
    • Поддерживаемые языки
    • Потоковое распознавание
    • Нормализация результатов распознавания
    • Анализ результатов распознавания
    • Определение дикторов
    • Обработка результатов распознавания с помощью LLM
    • Расширение модели распознавания речи
    • Загрузка данных для дообучения модели распознавания речи
    • Определение конца фразы
  • Поддерживаемые форматы аудио
  • Интеграция телефонии
  • Квоты и лимиты
  • Управление доступом
  • Правила тарификации
  • Аудитные логи Audit Trails
  1. Распознавание речи
  2. Обработка результатов распознавания с помощью LLM

Обработка результатов распознавания с помощью LLM

Статья создана
Yandex Cloud
Обновлена 5 сентября 2025 г.

SpeechKit API v3 позволяет не только распознавать аудио, но и обрабатывать результаты распознавания с помощью больших генеративных моделей. Таким образом можно автоматизировать обработку результатов распознавания речи, например, сразу же получить краткий пересказ распознанного аудио, на основе аудио заполнить определенные поля в CRM-системе или перевести диалог на английский язык.

Чтобы использовать возможности генеративных моделей при распознавании аудио, в конфигурации запроса заполните блок summarization. Вы можете указать только текстовую инструкцию (промт) для модели или задать структуру ответа в виде JSON. Подробнее про структуру ответа см. в документации Foundation Models. Чтобы использовать возможности генеративных моделей в SpeechKit API v3, понадобится роль ai.languageModels.user или выше.

Простой ответ
Произвольный JSON
Строгая схема JSON
{
...
  "summarization": {
    "modelUri": "gpt://<идентификатор_каталога>/<название_модели>",
    "properties": [
      {
        "instruction": "Промт для модели"
      }
    ]
  }
  ...
}
{
...
  "summarization": {
    "modelUri": "gpt://<идентификатор_каталога>/<название_модели>",
    "properties": [
      {
        "instruction": "Промт для модели, требующий структурированного ответа",
        "jsonObject": true
      }
    ]
  }
  ...
}
{
...
  "summarization": {
    "modelUri": "gpt://<идентификатор_каталога>/<название_модели>",
    "properties": [
      {
        "instruction": "Промт для модели, требующий структурированного ответа",
        "jsonSchema": {
          // Заданная схема вывода 
          "schema": "<json-схема>"
        }
      }
    ]
  }
  ...
}

Где:

  • modelUri — модель, доступная для работы в синхронном режиме.
  • instruction — промт модели («Выдели основные тезисы», «Переведи на английский»). Рекомендации по созданию промтов доступны в разделе Руководство по проектированию промтов, примеры эффективных промтов см. в библиотеке промтов YandexGPT.
  • jsonObject — при значении true задает вывод модели в виде JSON произвольного формата.
  • jsonSchema — схема для строго форматированного JSON-вывода.

Результаты работы модели вернутся в объекте summarization:


{
...
  "result": {
    "summarization": {
      "results": [
        {
          "response": "Текст от LLM-модели"
        },
        {
          "response": "JSON от LLM-модели"
        }
      ],
      "contentUsage": {
        "inputTextTokens": 150,    // Токены запроса
        "completionTokens": 80,    // Токены ответа
        "totalTokens": 230         // Суммарное потребление
      }
    }
  }
...
}

Поле contentUsage содержит детализацию расходов токенов. Стоимость использования зависит от выбранной модели и рассчитывается по тарифам сервиса Foundation Models на основе суммарного количества токенов в вопросе и ответе (поле totalTokens).

Была ли статья полезна?

Предыдущая
Определение дикторов
Следующая
Расширение модели распознавания речи
Проект Яндекса
© 2025 ООО «Яндекс.Облако»