Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Истории успеха
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Доступны в регионе
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • AI Studio
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Партнёрская программа
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Истории успеха
  • Документация
  • Блог
Проект Яндекса
© 2025 ТОО «Облачные Сервисы Казахстан»
Практические руководства
    • Все руководства
    • Развертывание веб-интерфейса Apache Kafka®
    • Обновление кластера Managed Service for Apache Kafka® с ZooKeeper на KRaft
    • Миграция БД из стороннего кластера Apache Kafka® в Managed Service for Apache Kafka®
    • Перенос данных между кластерами Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Debezium
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Debezium
    • Поставка данных из Managed Service for YDB в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for ClickHouse® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for Greenplum® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for MongoDB с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for MySQL® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for OpenSearch с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for PostgreSQL с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for YDB с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Data Streams с помощью Data Transfer
    • Поставка данных из Data Streams в Managed Service for YDB с помощью Data Transfer
    • Поставка данных из Data Streams в Managed Service for Apache Kafka® с помощью Data Transfer
    • Захват изменений YDB и поставка в YDS
    • Настройка Kafka Connect для работы с кластером Managed Service for Apache Kafka®
    • Синхронизация топиков Apache Kafka® в Object Storage без использования интернета
    • Отслеживание утери сообщений в топике Apache Kafka®
    • Автоматизация задач Query с помощью Managed Service for Apache Airflow™
    • Отправка запросов к API Yandex Cloud через Yandex Cloud Python SDK
    • Настройка SMTP-сервера для отправки уведомлений по электронной почте
    • Добавление данных в БД ClickHouse®
    • Миграция данных в Managed Service for ClickHouse® средствами ClickHouse®
    • Миграция данных в Managed Service for ClickHouse® при помощи Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for ClickHouse® с помощью Data Transfer
    • Асинхронная репликация данных из PostgreSQL в ClickHouse®
    • Обмен данными между Managed Service for ClickHouse® и Yandex Data Processing
    • Настройка Managed Service for ClickHouse® для Graphite
    • Получение данных из Managed Service for Apache Kafka® в Managed Service for ClickHouse®
    • Получение данных из Managed Service for Apache Kafka® в ksqlDB
    • Получение данных из RabbitMQ в Managed Service for ClickHouse®
    • Сохранение потока данных Data Streams в Managed Service for ClickHouse®
    • Асинхронная репликация данных из Яндекс Метрика в ClickHouse® с помощью Data Transfer
    • Использование гибридного хранилища в Managed Service for ClickHouse®
    • Шардирование таблиц Managed Service for ClickHouse®
    • Загрузка данных из Яндекс Директ в витрину Managed Service for ClickHouse® с использованием Cloud Functions, Object Storage и Data Transfer
    • Загрузка данных из Object Storage в Managed Service for ClickHouse® с помощью Data Transfer
    • Миграция данных со сменой хранилища из Managed Service for OpenSearch в Managed Service for ClickHouse® с помощью Data Transfer
    • Загрузка данных из Managed Service for YDB в Managed Service for ClickHouse® с помощью Data Transfer
    • Интеграция Yandex Managed Service for ClickHouse® с Microsoft SQL Server через ClickHouse® JDBC Bridge
    • Миграция базы данных из Google BigQuery в Managed Service for ClickHouse®
    • Интеграция Yandex Managed Service for ClickHouse® с Oracle через ClickHouse® JDBC Bridge
    • Настройка Cloud DNS для доступа к кластеру Managed Service for ClickHouse® из других облачных сетей
    • Миграция кластера Yandex Data Processing с HDFS в другую зону доступности
    • Импорт данных из Managed Service for MySQL® в Yandex Data Processing с помощью Sqoop
    • Импорт данных из Managed Service for PostgreSQL в Yandex Data Processing с помощью Sqoop
    • Монтирование бакетов Object Storage к файловой системе хостов Yandex Data Processing
    • Работа с топиками Apache Kafka® с помощью Yandex Data Processing
    • Автоматизация работы с Yandex Data Processing с помощью Managed Service for Apache Airflow™
    • Совместная работа с таблицами Yandex Data Processing с использованием Metastore
    • Перенос метаданных между кластерами Yandex Data Processing с помощью Metastore
    • Импорт данных из Object Storage, обработка и экспорт в Managed Service for ClickHouse®
    • Миграция в Managed Service for Elasticsearch с помощью снапшотов
    • Миграция коллекций из стороннего кластера MongoDB в Managed Service for MongoDB
    • Миграция данных в Managed Service for MongoDB
    • Миграция кластера Managed Service for MongoDB с версии 4.4 на 6.0
    • Шардирование коллекций MongoDB
    • Анализ производительности и оптимизация MongoDB
    • Миграция БД из стороннего кластера MySQL® в кластер Managed Service for MySQL®
    • Анализ производительности и оптимизация Managed Service for MySQL®
    • Синхронизация данных из стороннего кластера MySQL® в Managed Service for MySQL® с помощью Data Transfer
    • Миграция БД из Managed Service for MySQL® в сторонний кластер MySQL®
    • Миграция БД из Managed Service for MySQL® в Object Storage с помощью Data Transfer
    • Перенос данных из Object Storage в Managed Service for MySQL® с использованием Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Debezium
    • Миграция БД из Managed Service for MySQL® в Managed Service for YDB с помощью Data Transfer
    • Захват изменений MySQL® и поставка в YDS
    • Миграция данных из Managed Service for MySQL® в Managed Service for PostgreSQL с помощью Data Transfer
    • Миграция данных из AWS RDS for PostgreSQL в Managed Service for PostgreSQL с помощью Data Transfer
    • Миграция данных из Managed Service for MySQL® в Managed Service for Greenplum® с помощью Data Transfer
    • Настройка политики индексов в Managed Service for OpenSearch
    • Миграция данных из Elasticsearch в Managed Service for OpenSearch
    • Миграция данных в Managed Service for OpenSearch из стороннего кластера OpenSearch с помощью Data Transfer
    • Загрузка данных из Managed Service for OpenSearch в Object Storage с помощью Data Transfer
    • Миграция данных из Managed Service for OpenSearch в Managed Service for YDB с помощью Data Transfer
    • Копирование данных из Managed Service for OpenSearch в Managed Service for Greenplum® с помощью Yandex Data Transfer
    • Миграция данных из Managed Service for PostgreSQL в Managed Service for OpenSearch с помощью Data Transfer
    • Аутентификация в OpenSearch Dashboards кластера Managed Service for OpenSearch с помощью Keycloak
    • Использование плагина yandex-lemmer в Managed Service for OpenSearch
    • Создание кластера PostgreSQL для «1С:Предприятия»
    • Логическая репликация PostgreSQL
    • Миграция БД из стороннего кластера PostgreSQL в Managed Service for PostgreSQL
    • Миграция БД из Managed Service for PostgreSQL
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Debezium
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for YDB с помощью Data Transfer
    • Миграция БД из Managed Service for PostgreSQL в Object Storage
    • Перенос данных из Object Storage в Managed Service for PostgreSQL с использованием Data Transfer
    • Захват изменений PostgreSQL и поставка в YDS
    • Миграция данных из Managed Service for PostgreSQL в Managed Service for MySQL® с помощью Data Transfer
    • Миграция данных из Managed Service for PostgreSQL в Managed Service for OpenSearch с помощью Data Transfer
    • Решение проблем с сортировкой строк в PostgreSQL после обновления glibc
    • Миграция БД из Greenplum® в ClickHouse®
    • Миграция БД из Greenplum® в PostgreSQL
    • Выгрузка данных Greenplum® в холодное хранилище Object Storage
    • Загрузка данных из Object Storage в Managed Service for Greenplum® с помощью Data Transfer
    • Копирование данных из Managed Service for OpenSearch в Managed Service for Greenplum® с помощью Yandex Data Transfer
    • Создание внешней таблицы на базе таблицы из бакета Object Storage с помощью конфигурационного файла
    • Миграция БД из стороннего кластера Valkey™ в Yandex Managed Service for Valkey™
    • Использование кластера Yandex Managed Service for Valkey™ в качестве хранилища сессий PHP
    • Загрузка данных из Object Storage в Managed Service for YDB с помощью Data Transfer
    • Загрузка данных из Managed Service for YDB в Object Storage с помощью Data Transfer
    • Обработка аудитных логов Audit Trails
    • Обработка логов Cloud Logging
    • Обработка потока изменений Debezium
    • Анализ данных с помощью Jupyter
    • Обработка файлов детализации в сервисе Yandex Cloud Billing
    • Ввод данных в системы хранения
    • Умная обработка логов
    • Передача данных в микросервисных архитектурах
    • Миграция данных в Object Storage с помощью Data Transfer
    • Миграция данных из стороннего кластера Greenplum® или PostgreSQL в Managed Service for Greenplum® с помощью Data Transfer
    • Миграция кластера Managed Service for MongoDB
    • Миграция кластера MySQL®
    • Миграция на сторонний кластер MySQL®
    • Миграция кластера PostgreSQL
    • Создание реестра схем для поставки данных в формате Debezium CDC из Apache Kafka®
    • Автоматизация работы с помощью Yandex Managed Service for Apache Airflow™

В этой статье:

  • Необходимые платные ресурсы
  • Перед началом работы
  • Отправьте данные в топик
  • Убедитесь в недоступности бакета из внешней сети
  • Проверьте наличие данных в бакете по сервисному подключению
  • Удалите созданные ресурсы
  1. Построение Data Platform
  2. Синхронизация топиков Apache Kafka® в Object Storage без использования интернета

Синхронизация данных из топиков Apache Kafka® в бакет Object Storage без использования интернета

Статья создана
Yandex Cloud
Обновлена 26 августа 2025 г.
  • Необходимые платные ресурсы
  • Перед началом работы
  • Отправьте данные в топик
  • Убедитесь в недоступности бакета из внешней сети
  • Проверьте наличие данных в бакете по сервисному подключению
  • Удалите созданные ресурсы

Примечание

В регионе Казахстан доступна только зона доступности kz1-a.

Примечание

Функциональность сервисных подключений (VPC Private Endpoints) в Yandex Virtual Private Cloud находится на стадии Preview. Чтобы получить доступ, обратитесь к вашему аккаунт-менеджеру.

Вы можете синхронизировать данные из топиков Apache Kafka® в бакет Yandex Object Storage без использования интернета с помощью сервисного подключения в пользовательской сети, где располагается кластер Managed Service for Apache Kafka®. Для этого:

  1. Отправьте данные в топик.
  2. Убедитесь в недоступности бакета из внешней сети.
  3. Проверьте наличие данных в бакете.

Если созданные ресурсы вам больше не нужны, удалите их.

Необходимые платные ресурсыНеобходимые платные ресурсы

В стоимость поддержки описываемого решения входят:

  • Плата за бакет Object Storage: хранение данных и выполнение операций с ними (см. тарифы Object Storage).
  • Плата за кластер Managed Service for Apache Kafka®: использование выделенных хостам вычислительных ресурсов и дискового пространства (см. тарифы Managed Service for Apache Kafka®).
  • Плата за использование публичных IP-адресов для хостов кластера (см. тарифы Virtual Private Cloud).

Перед началом работыПеред началом работы

  1. Подготовьте инфраструктуру:

    Вручную
    Terraform
    1. Создайте сеть с именем my-private-network. При создании выключите опцию Создать подсети.

    2. Создайте подсеть в любой зоне доступности.

    3. Создайте сервисное подключение к Object Storage в сети my-private-network и запишите его идентификатор.

    4. Создайте сервисный аккаунт с именем storage-pe-admin и ролью storage.admin. Кластер Managed Service for Apache Kafka® будет использовать его для доступа к бакету.

    5. Создайте статический ключ доступа для сервисного аккаунта storage-pe-admin.

    6. Создайте бакет Yandex Object Storage и задайте для него политику доступа:

      • Результат — Разрешить.
      • Действие — Все действия.
      • Ресурс — <имя_бакета> и <имя_бакета>/*.
      • Условие — выберите из списка ключ yc:private-endpoint-id и укажите для его значения идентификатор созданного сервисного подключения.
    7. Создайте кластер Managed Service for Apache Kafka® любой подходящей конфигурации со следующими настройками:

      • Один хост-брокер.
      • Публичный доступ к хостам кластера.
      • Сеть my-private-network.
    8. Если вы используете группы безопасности в кластере, убедитесь, что они настроены правильно и допускают подключение к нему.

    9. Создайте в кластере топик с именем my-private-topic.

    10. Создайте в кластере пользователя с именем mkf-user и правом доступа ACCESS_ROLE_PRODUCER к созданному топику.

    11. Создайте в кластере коннектор со следующими настройками:

      • В блоке Дополнительные свойства укажите свойства коннектора:
        • key.converter: org.apache.kafka.connect.storage.StringConverter
        • value.converter: org.apache.kafka.connect.converters.ByteArrayConverter
        • format.output.fields.value.encoding: none
      • Выберите тип коннектора S3 Sink.
      • В поле Топики укажите my-private-topic.
      • В блоке Подключение к S3 укажите параметры:
        • Имя бакета — созданный ранее бакет.
        • Эндпоинт — storage.pe.yandexcloud.net.
        • Идентификатор ключа доступа, Секретный ключ — идентификатор и секретный ключ созданного ранее статического ключа доступа.
    12. Создайте ВМ с публичным IP-адресом в созданной сети my-private-network для подключения к бакету.

    1. Если у вас еще нет Terraform, установите его.

    2. Получите данные для аутентификации. Вы можете добавить их в переменные окружения или указать далее в файле с настройками провайдера.

    3. Настройте и инициализируйте провайдер. Чтобы не создавать конфигурационный файл с настройками провайдера вручную, скачайте его.

    4. Поместите конфигурационный файл в отдельную рабочую директорию и укажите значения параметров. Если данные для аутентификации не были добавлены в переменные окружения, укажите их в конфигурационном файле.

    5. Скачайте в ту же рабочую директорию файл конфигурации kafka-objstorage-sync-private-network.tf.

      В этом файле описаны:

      • сеть;
      • подсеть;
      • сервисное подключение;
      • группа безопасности, необходимая для подключения к кластеру;
      • сервисный аккаунт, который будет использоваться для создания бакета и доступа к нему;
      • бакет Object Storage;
      • кластер Managed Service for Apache Kafka®;
      • топик Apache Kafka®;
      • пользователь Apache Kafka®;
      • коннектор Apache Kafka®;
      • ВМ для чтения данных из бакета.
    6. Укажите в файле kafka-objstorage-sync-private-network.tf:

      • tf_account_name — имя сервисного аккаунта, такое же, как в настройках провайдера.
      • bucket_name — имя бакета в соответствии с правилами именования.
      • mkf_version — версия Apache Kafka®;
      • mkf_user_password — пароль пользователя Apache Kafka®.
      • vm_image_id — идентификатор публичного образа ВМ.
      • vm_username и vm_ssh_key – логин и абсолютный путь к публичному ключу, которые будут использоваться для доступа к ВМ.
    7. Проверьте корректность файлов конфигурации Terraform с помощью команды:

      terraform validate
      

      Если в файлах конфигурации есть ошибки, Terraform на них укажет.

    8. Создайте необходимую инфраструктуру:

      1. Выполните команду для просмотра планируемых изменений:

        terraform plan
        

        Если конфигурации ресурсов описаны верно, в терминале отобразится список изменяемых ресурсов и их параметров. Это проверочный этап: ресурсы не будут изменены.

      2. Если вас устраивают планируемые изменения, внесите их:

        1. Выполните команду:

          terraform apply
          
        2. Подтвердите изменение ресурсов.

        3. Дождитесь завершения операции.

      В указанном каталоге будут созданы все требуемые ресурсы. Проверить появление ресурсов и их настройки можно в консоли управления.

  2. Убедитесь, что в сервисе Yandex Cloud DNS появилась запись *.storage.pe.yandexcloud.net в сервисной зоне . созданной сети.

  3. Установите утилиту kafkacat для записи данных в топик Apache Kafka®.

    sudo apt update && sudo apt install --yes kafkacat
    

    Убедитесь, что можете с ее помощью подключиться к созданному ранее кластеру Managed Service for Apache Kafka® через SSL.

Отправьте данные в топикОтправьте данные в топик

  1. Отправьте тестовые данные в топик my-private-topic с помощью утилиты kafkacat:

    for i in $(echo {1..50})
        do
           echo "test message_"$i | kafkacat -P \
              -b <FQDN_хоста-брокера>:9091 \
              -t my-private-topic \
              -k key \
              -X security.protocol=SASL_SSL \
              -X sasl.username="<имя_пользователя_в_кластере-источнике>" \
              -X sasl.password="<пароль_пользователя_в_кластере-источнике>" \
              -X ssl.ca.location=/usr/local/share/ca-certificates/Yandex/YandexInternalRootCA.crt -Z
        done
    
  2. Убедитесь в репликации данных в бакет. Для этого откройте статистику загрузок бакета и проверьте наличие запросов на графике Modify Requests.

Убедитесь в недоступности бакета из внешней сетиУбедитесь в недоступности бакета из внешней сети

  1. Если у вас еще нет интерфейса командной строки AWS CLI, установите и сконфигурируйте его.

  2. Выполните команду для получения списка объектов бакета по адресу в публичной сети:

    aws s3 ls s3://<имя_бакета> \
        --endpoint-url=https://storage.yandexcloud.net \
        --recursive
    

    Результат:

    An error occurred (AccessDenied) when calling the ListObjectsV2 operation: Access Denied
    
  3. Выполните команду для получения списка объектов бакета по адресу в приватной сети:

    aws s3 ls s3://<имя_бакета> \
        --endpoint-url=https://storage.pe.yandexcloud.net \
        --recursive
    

    Результат:

    Could not connect to the endpoint URL: "https://storage.pe.yandexcloud.net/<имя_бакета>?list-type=2&prefix=&encoding-type=url"
    

Проверьте наличие данных в бакете по сервисному подключениюПроверьте наличие данных в бакете по сервисному подключению

Подключитесь по SSH к созданной ранее ВМ и выполните следующие действия:

  1. Установите и сконфигурируйте интерфейс командной строки AWS CLI.

  2. Выполните команду для получения списка объектов бакета по адресу в приватной сети:

    aws s3 ls s3://<имя_бакета> \
        --endpoint-url=https://storage.pe.yandexcloud.net \
        --recursive
    

    Результат:

    2025-08-01 14:38:23         20 my-private-topic-1-0
    2025-08-01 14:38:23        587 my-private-topic-1-1
    2025-08-01 14:38:24        440 my-private-topic-1-29
    

Такой результат означает, что данные из топика Apache Kafka® успешно синхронизированы через сервисное подключение.

Удалите созданные ресурсыУдалите созданные ресурсы

Некоторые ресурсы платные. Чтобы за них не списывалась плата, удалите ресурсы, которые вы больше не будете использовать:

Вручную
Terraform
  • Удалите кластер Managed Service for Apache Kafka®.
  • Удалите бакет Object Storage. Перед удалением бакета удалите все объекты из него.
  • Удалите виртуальную машину

Предварительно удалите все объекты из созданного ранее бакета.

  1. В терминале перейдите в директорию с планом инфраструктуры.

    Важно

    Убедитесь, что в директории нет Terraform-манифестов с ресурсами, которые вы хотите сохранить. Terraform удаляет все ресурсы, которые были созданы с помощью манифестов в текущей директории.

  2. Удалите ресурсы:

    1. Выполните команду:

      terraform destroy
      
    2. Подтвердите удаление ресурсов и дождитесь завершения операции.

    Все ресурсы, которые были описаны в Terraform-манифестах, будут удалены.

Была ли статья полезна?

Предыдущая
Настройка Kafka Connect для работы с кластером Managed Service for Apache Kafka®
Следующая
Управление схемами данных в Managed Service for Apache Kafka®
Проект Яндекса
© 2025 ТОО «Облачные Сервисы Казахстан»