Интеграция модели Qwen3 в Visual Studio Code
Вы можете облегчить процесс разработки в Visual Studio Code
В этом руководстве вы настроите интеграцию модели Qwen3-235B-A22B в среду разработки Visual Studio Code с помощью сервиса Yandex AI Studio и расширения Roo Code
Чтобы использовать модель Qwen3-235B-A22B в качестве ассистента в Visual Studio Code:
- Подготовьте инфраструктуру.
- Создайте API-ключ для сервисного аккаунта.
- Подключитесь к модели.
- Протестируйте модель.
В стоимость поддержки инфраструктуры для подключения к модели Qwen3-235B-A22B из Visual Studio Code входит плата за генерацию текста (см. тарифы Yandex AI Studio).
Подготовьте инфраструктуру
Создайте каталог
- В консоли управления
выберите облако и нажмите кнопку Создать каталог. - Введите имя каталога, например
aistudio. - Нажмите кнопку Создать.
Создайте сервисный аккаунт
Сервисный аккаунт понадобится, чтобы получить API-ключ.
- Перейдите в каталог
aistudio. - В списке сервисов выберите Identity and Access Management.
- Нажмите кнопку Создать сервисный аккаунт.
- Введите имя сервисного аккаунта, например
qwen-user. - Нажмите Добавить роль и назначьте сервисному аккаунту роль
ai.languageModels.user. - Нажмите кнопку Создать.
Создайте API-ключ для сервисного аккаунта
Чтобы Visual Studio Code могла получить доступ к модели, создайте API-ключ.
- В консоли управления
перейдите в каталогaistudio. - В списке сервисов выберите Identity and Access Management.
- На панели слева выберите
Сервисные аккаунты. - В открывшемся списке выберите сервисный аккаунт
qwen-user. - На панели сверху нажмите кнопку
Создать новый ключ и выберите Создать API-ключ. - В поле Область действия выберите
yc.ai.languageModels.execute. - Нажмите кнопку Создать.
- Сохраните идентификатор и секретный ключ.
Подключитесь к модели
- Установите расширение Roo Code
в Visual Studio Code. - В окне программы на панели слева нажмите Roo Code.
- В открывшемся окне в поле API Provider выберите OpenAI Compatible.
- В поле Base URL укажите
https://llm.api.cloud.yandex.net/v1. - В поле API-key вставьте секретное значение ключа, полученное на предыдущем шаге.
- В поле Model укажите
gpt://<идентификатор_каталога>/qwen3-235b-a22b-fp8/latest, где<идентификатор_каталога>— идентификатор каталогаaistudio. - Нажмите Go!.
Протестируйте модель
В качестве примера попросим модель сгенерировать скрипт обращения к модели через OpenAI SDK.
-
В Visual Studio Code на панели слева нажмите Roo Code.
-
В открывшемся окне в поле ввода снизу напишите промт и нажмите Send message:
Напиши скрипт test.py, который через Python OpenAI SDK делает потоковый вызов генерации стихотворения про Yandex Cloud. В качестве параметров принимается токен и идентификатор модели. В качестве эндпоинта — https://llm.api.cloud.yandex.net/v1Результат:
import sys from openai import OpenAI def main(): if len(sys.argv) != 4: print("Usage: python test.py <token> <model_id> <folder_id>") return token = sys.argv[1] model_id = sys.argv[2] folder_id = sys.argv[3] client = OpenAI( base_url="https://llm.api.cloud.yandex.net/v1", api_key=token, project=folder_id ) stream = client.chat.completions.create( model=model_id, messages=[ {"role": "user", "content": "Напиши стихотворение про Yandex Cloud"} ], stream=True ) for chunk in stream: content = chunk.choices[0].delta.content if content: print(content, end="") if __name__ == "__main__": main()