Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Истории успеха
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Доступны в регионе
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • ИИ для бизнеса
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Партнёрская программа
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Истории успеха
  • Документация
  • Блог
Проект Яндекса
© 2025 ТОО «Облачные Сервисы Казахстан»
Практические руководства
    • Все руководства
    • Самостоятельное развертывание веб-интерфейса Apache Kafka®
    • Обновление кластера Managed Service for Apache Kafka® с ZooKeeper на KRaft
    • Миграция БД из стороннего кластера Apache Kafka® в Managed Service for Apache Kafka®
    • Перенос данных между кластерами Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Debezium
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Debezium
    • Поставка данных из Managed Service for YDB в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for ClickHouse® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Yandex MPP Analytics for PostgreSQL с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Yandex StoreDoc с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for MySQL® с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for OpenSearch с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for PostgreSQL с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Managed Service for YDB с помощью Data Transfer
    • Поставка данных из Managed Service for Apache Kafka® в Data Streams с помощью Data Transfer
    • Поставка данных из Data Streams в Managed Service for YDB с помощью Data Transfer
    • Поставка данных из Data Streams в Managed Service for Apache Kafka® с помощью Data Transfer
    • Захват изменений YDB и поставка в YDS
    • Настройка Kafka Connect для работы с кластером Managed Service for Apache Kafka®
    • Синхронизация топиков Apache Kafka® в Object Storage без использования интернета
    • Отслеживание потери сообщений в топике Apache Kafka®
    • Автоматизация задач Query с помощью Managed Service for Apache Airflow™
    • Отправка запросов к API Yandex Cloud через Yandex Cloud Python SDK
    • Настройка SMTP-сервера для отправки уведомлений по электронной почте
    • Добавление данных в БД ClickHouse®
    • Миграция данных в Managed Service for ClickHouse® средствами ClickHouse®
    • Миграция данных в Managed Service for ClickHouse® при помощи Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for ClickHouse® с помощью Data Transfer
    • Асинхронная репликация данных из PostgreSQL в ClickHouse®
    • Обмен данными между Managed Service for ClickHouse® и Yandex Data Processing
    • Настройка Managed Service for ClickHouse® для Graphite
    • Получение данных из Managed Service for Apache Kafka® в Managed Service for ClickHouse®
    • Получение данных из Managed Service for Apache Kafka® в ksqlDB
    • Получение данных из RabbitMQ в Managed Service for ClickHouse®
    • Сохранение потока данных Data Streams в Managed Service for ClickHouse®
    • Асинхронная репликация данных из Яндекс Метрика в ClickHouse® с помощью Data Transfer
    • Использование гибридного хранилища в Managed Service for ClickHouse®
    • Шардирование таблиц Managed Service for ClickHouse®
    • Загрузка данных из Яндекс Директ в витрину Managed Service for ClickHouse® с использованием Cloud Functions, Object Storage и Data Transfer
    • Загрузка данных из Object Storage в Managed Service for ClickHouse® с помощью Data Transfer
    • Миграция данных со сменой хранилища из Managed Service for OpenSearch в Managed Service for ClickHouse® с помощью Data Transfer
    • Загрузка данных из Managed Service for YDB в Managed Service for ClickHouse® с помощью Data Transfer
    • Интеграция Yandex Managed Service for ClickHouse® с Microsoft SQL Server через ClickHouse® JDBC Bridge
    • Миграция базы данных из Google BigQuery в Managed Service for ClickHouse®
    • Интеграция Yandex Managed Service for ClickHouse® с Oracle через ClickHouse® JDBC Bridge
    • Настройка Cloud DNS для доступа к кластеру Managed Service for ClickHouse® из других облачных сетей
    • Миграция кластера Yandex Data Processing с HDFS в другую зону доступности
    • Импорт данных из Managed Service for MySQL® в Yandex Data Processing с помощью Sqoop
    • Импорт данных из Managed Service for PostgreSQL в Yandex Data Processing с помощью Sqoop
    • Монтирование бакетов Object Storage к файловой системе хостов Yandex Data Processing
    • Работа с топиками Apache Kafka® с помощью Yandex Data Processing
    • Автоматизация работы с Yandex Data Processing с помощью Managed Service for Apache Airflow™
    • Совместная работа с таблицами Yandex Data Processing с использованием Apache Hive™ Metastore
    • Перенос метаданных между кластерами Yandex Data Processing с помощью Apache Hive™ Metastore
    • Импорт данных из Object Storage, обработка и экспорт в Managed Service for ClickHouse®
    • Миграция коллекций из стороннего кластера MongoDB в Yandex StoreDoc
    • Миграция данных в Yandex StoreDoc
    • Миграция кластера Yandex StoreDoc с версии 4.4 на 6.0
    • Шардирование коллекций Yandex StoreDoc
    • Анализ производительности и оптимизация Yandex StoreDoc
    • Анализ производительности и оптимизация Managed Service for MySQL®
    • Синхронизация данных из стороннего кластера MySQL® в Managed Service for MySQL® с помощью Data Transfer
    • Миграция БД из Managed Service for MySQL® в сторонний кластер MySQL®
    • Миграция БД из Managed Service for MySQL® в Object Storage с помощью Data Transfer
    • Перенос данных из Object Storage в Managed Service for MySQL® с использованием Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for MySQL® в Managed Service for Apache Kafka® с помощью Debezium
    • Миграция БД из Managed Service for MySQL® в Managed Service for YDB с помощью Data Transfer
    • Захват изменений MySQL® и поставка в YDS
    • Миграция данных из Managed Service for MySQL® в Managed Service for PostgreSQL с помощью Data Transfer
    • Миграция данных из AWS RDS for PostgreSQL в Managed Service for PostgreSQL с помощью Data Transfer
    • Миграция данных из Managed Service for MySQL® в Yandex MPP Analytics for PostgreSQL с помощью Data Transfer
    • Настройка политики индексов в Managed Service for OpenSearch
    • Миграция данных в Managed Service for OpenSearch из стороннего кластера OpenSearch с помощью Data Transfer
    • Загрузка данных из Managed Service for OpenSearch в Object Storage с помощью Data Transfer
    • Миграция данных из Managed Service for OpenSearch в Managed Service for YDB с помощью Data Transfer
    • Копирование данных из Managed Service for OpenSearch в Yandex MPP Analytics for PostgreSQL с помощью Yandex Data Transfer
    • Миграция данных из Managed Service for PostgreSQL в Managed Service for OpenSearch с помощью Data Transfer
    • Аутентификация в OpenSearch Dashboards кластера Managed Service for OpenSearch с помощью Keycloak
    • Использование плагина yandex-lemmer в Managed Service for OpenSearch
    • Создание кластера PostgreSQL для «1С:Предприятия»
    • Логическая репликация PostgreSQL
    • Миграция БД из стороннего кластера PostgreSQL в Managed Service for PostgreSQL
    • Миграция БД из Managed Service for PostgreSQL
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Data Transfer
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for Apache Kafka® с помощью Debezium
    • Поставка данных из Managed Service for PostgreSQL в Managed Service for YDB с помощью Data Transfer
    • Миграция БД из Managed Service for PostgreSQL в Object Storage
    • Перенос данных из Object Storage в Managed Service for PostgreSQL с использованием Data Transfer
    • Захват изменений PostgreSQL и поставка в YDS
    • Миграция данных из Managed Service for PostgreSQL в Managed Service for MySQL® с помощью Data Transfer
    • Миграция данных из Managed Service for PostgreSQL в Managed Service for OpenSearch с помощью Data Transfer
    • Решение проблем с сортировкой строк в PostgreSQL после обновления glibc
    • Миграция БД из Greenplum® в ClickHouse®
    • Миграция БД из Greenplum® в PostgreSQL
    • Выгрузка данных Greenplum® в холодное хранилище Object Storage
    • Загрузка данных из Object Storage в Yandex MPP Analytics for PostgreSQL с помощью Data Transfer
    • Копирование данных из Managed Service for OpenSearch в Yandex MPP Analytics for PostgreSQL с помощью Yandex Data Transfer
    • Создание внешней таблицы на базе таблицы из бакета Object Storage с помощью конфигурационного файла
    • Получение данных из внешних источников с помощью именованных запросов в Greenplum®
    • Миграция БД из стороннего кластера Valkey™ в Yandex Managed Service for Valkey™
    • Использование кластера Yandex Managed Service for Valkey™ в качестве хранилища сессий PHP
    • Загрузка данных из Object Storage в Managed Service for YDB с помощью Data Transfer
    • Загрузка данных из Managed Service for YDB в Object Storage с помощью Data Transfer
    • Обработка аудитных логов Audit Trails
    • Обработка логов Cloud Logging
    • Обработка потока изменений Debezium
    • Анализ данных с помощью Jupyter
    • Обработка файлов детализации в сервисе Yandex Cloud Billing
    • Ввод данных в системы хранения
    • Умная обработка логов
    • Передача данных в микросервисных архитектурах
    • Миграция данных в Object Storage с помощью Data Transfer
    • Миграция данных из стороннего кластера Greenplum® или PostgreSQL в Yandex MPP Analytics for PostgreSQL с помощью Data Transfer
    • Миграция кластера Yandex StoreDoc
    • Миграция кластера MySQL®
    • Миграция на сторонний кластер MySQL®
    • Миграция кластера PostgreSQL
    • Создание реестра схем для поставки данных в формате Debezium CDC из Apache Kafka®
    • Автоматизация работы с помощью Yandex Managed Service for Apache Airflow™
    • Работа с таблицей в Object Storage из PySpark-задания
    • Интеграция Yandex Managed Service for Apache Spark™ и Apache Hive™ Metastore
    • Запуск PySpark-задания с помощью Yandex Managed Service for Apache Airflow™
    • Использование Yandex Object Storage в Yandex Managed Service for Apache Spark™

В этой статье:

  • Развертывание в Docker-контейнере
  • Необходимые платные ресурсы
  • Перед началом работы
  • Установите дополнительные зависимости
  • Создайте хранилище сертификатов TrustStore
  • Подготовьте веб-интерфейс Apache Kafka®
  • Развертывание в кластере Managed Service for Kubernetes
  • Необходимые платные ресурсы
  • Перед началом работы
  • Установите дополнительные зависимости
  • Создайте хранилище сертификатов TrustStore
  • Разверните приложение с веб-интерфейсом Apache Kafka® в поде Kubernetes
  • Проверьте результат
  • Удалите созданные ресурсы
  1. Построение Data Platform
  2. Самостоятельное развертывание веб-интерфейса Apache Kafka®

Самостоятельное развертывание веб-интерфейса Apache Kafka®

Статья создана
Yandex Cloud
Обновлена 13 ноября 2025 г.
  • Развертывание в Docker-контейнере
    • Необходимые платные ресурсы
    • Перед началом работы
    • Установите дополнительные зависимости
    • Создайте хранилище сертификатов TrustStore
    • Подготовьте веб-интерфейс Apache Kafka®
  • Развертывание в кластере Managed Service for Kubernetes
    • Необходимые платные ресурсы
    • Перед началом работы
    • Установите дополнительные зависимости
    • Создайте хранилище сертификатов TrustStore
    • Разверните приложение с веб-интерфейсом Apache Kafka® в поде Kubernetes
    • Проверьте результат
  • Удалите созданные ресурсы

Примечание

В регионе Казахстан доступна только зона доступности kz1-a.

Примечание

Managed Service for Apache Kafka® имеет встроенную поддержку веб-интерфейса Kafka UI. Если вам по какой-то причине не подходит такой вариант, используйте информацию из этого руководства.

Вы можете установить веб-интерфейс Apache Kafka® для своего кластера Managed Service for Apache Kafka®. С помощью веб-интерфейса можно отслеживать потоки данных, находить и устранять неисправности, управлять брокерами, кластером, производителями и потребителями.

Развернуть веб-интерфейс Apache Kafka® можно двумя способами:

  • В Docker-контейнере на виртуальной машине Yandex Cloud. Этот вариант дешевле, но менее надежный, поэтому подходит для знакомства с веб-интерфейсом Apache Kafka®.
  • В кластере Yandex Managed Service for Kubernetes. Этот вариант дороже, но более надежный, поэтому подходит для постоянного и длительного использования веб-интерфейса.

Развертывание в Docker-контейнереРазвертывание в Docker-контейнере

Чтобы развернуть веб-интерфейс Apache Kafka® в Docker-контейнере:

  1. Установите дополнительные зависимости.
  2. Создайте хранилище сертификатов TrustStore.
  3. Подготовьте веб-интерфейс Apache Kafka®.

Если созданные ресурсы вам больше не нужны, удалите их.

Необходимые платные ресурсыНеобходимые платные ресурсы

В стоимость поддержки описываемого решения входят:

  • Плата за кластер Managed Service for Apache Kafka®: использование вычислительных ресурсов, выделенных хостам (в том числе хостам ZooKeeper), и дискового пространства (см. тарифы Apache Kafka®).
  • Плата за ВМ: использование вычислительных ресурсов, операционной системы и хранилища (см. тарифы Compute Cloud).
  • Плата за публичные IP-адреса для ВМ и хостов кластера, если для них включен публичный доступ (см. тарифы Virtual Private Cloud).

Перед началом работыПеред началом работы

Подготовьте инфраструктуру:

Вручную
Terraform
  1. Настройте группу безопасности для кластера Managed Service for Apache Kafka® и ВМ так, чтобы к топикам можно было подключаться с ВМ в Облаке.

  2. Создайте кластер Managed Service for Apache Kafka®. При создании укажите настроенную группу безопасности.

  3. Создайте пользователя Apache Kafka®.

  4. В той же сети, что и кластер Managed Service for Apache Kafka®, создайте ВМ с Ubuntu 22.04, публичным IP-адресом и настроенной группой безопасности.

  1. Если у вас еще нет Terraform, установите его.

  2. Получите данные для аутентификации. Вы можете добавить их в переменные окружения или указать далее в файле с настройками провайдера.

  3. Настройте и инициализируйте провайдер. Чтобы не создавать конфигурационный файл с настройками провайдера вручную, скачайте его.

  4. Поместите конфигурационный файл в отдельную рабочую директорию и укажите значения параметров. Если данные для аутентификации не были добавлены в переменные окружения, укажите их в конфигурационном файле.

  5. Скачайте в ту же рабочую директорию файл конфигурации kafka-ui-via-docker.tf.

    В этом файле описаны:

    • сеть;

    • подсеть;

    • ВМ с Ubuntu 22.04;

    • группа безопасности по умолчанию и правила, необходимые для подключения к кластеру и виртуальной машине из интернета;

    • кластер Managed Service for Apache Kafka®;

    • пользователь Apache Kafka®.

  6. Укажите значения переменных в файле kafka-ui-via-docker.tf.

  7. Проверьте корректность файлов конфигурации Terraform с помощью команды:

    terraform validate
    

    Если в файлах конфигурации есть ошибки, Terraform на них укажет.

  8. Создайте необходимую инфраструктуру:

    1. Выполните команду для просмотра планируемых изменений:

      terraform plan
      

      Если конфигурации ресурсов описаны верно, в терминале отобразится список изменяемых ресурсов и их параметров. Это проверочный этап: ресурсы не будут изменены.

    2. Если вас устраивают планируемые изменения, внесите их:

      1. Выполните команду:

        terraform apply
        
      2. Подтвердите изменение ресурсов.

      3. Дождитесь завершения операции.

    В указанном каталоге будут созданы все требуемые ресурсы. Проверить появление ресурсов и их настройки можно в консоли управления.

Установите дополнительные зависимостиУстановите дополнительные зависимости

  1. Подключитесь к ВМ по SSH:

    ssh <имя_пользователя>@<публичный_IP-адрес_ВМ>
    

    Где <имя_пользователя> — имя учетной записи пользователя ВМ. Публичный IP-адрес ВМ доступен в консоли управления, на странице ВМ.

  2. Чтобы проверить доступность кластера Managed Service for Apache Kafka®, подключитесь к одному из его хостов с ролью KAFKA:

    telnet <FQDN_хоста> 9091
    

    FQDN доступен в консоли управления:

    1. Перейдите на страницу кластера.
    2. Перейдите в раздел Хосты.
    3. Скопируйте значение в столбце FQDN хоста, в строке хоста с ролью KAFKA.

    Если кластер доступен, появится сообщение:

    Connected to <FQDN_хоста>
    

    После этого выполнение команды можно прервать, так как далее она не завершается, а ожидает передачи данных.

  3. Установите Docker:

    sudo apt update && sudo apt install docker.io
    
  4. Установите утилиту keytool для управления ключами и сертификатами:

    sudo apt install openjdk-19-jre-headless
    

Создайте хранилище сертификатов TrustStoreСоздайте хранилище сертификатов TrustStore

При развертывании Apache Kafka® в Docker-контейнере команды для TrustStore выполняются на ВМ.

TrustStore — это хранилище доверенных сертификатов, которое используется в файлах JKS (Java KeyStore). Оно применяется для аутентификации клиента при его подключении к серверу. Сервер валидирует клиента с помощью сертификатов, которые хранятся в TrustStore. При этом клиент хранит приватный ключ и сертификат на своей стороне, в хранилище KeyStore.

В примере ниже TrustStore используется, чтобы подключиться к кластеру Managed Service for Apache Kafka®. Без создания TrustStore в веб-интерфейсе Apache Kafka® не появится информация о кластере.

Чтобы использовать TrustStore:

  1. Создайте SSL-сертификат:

    sudo mkdir -p /usr/local/share/ca-certificates/Yandex/ && \
    sudo wget "https://storage.yandexcloud.kz/cloud-certs/CA.pem" \
         --output-document /usr/local/share/ca-certificates/Yandex/YandexCA.crt && \
    sudo chmod 0655 /usr/local/share/ca-certificates/Yandex/YandexCA.crt
    
  2. Создайте директорию /truststore:

    mkdir /truststore
    

    В ней будет храниться файл truststore.jks. Отдельная директория нужна, чтобы далее путь к файлу был корректно распознан в командах и конфигурационных файлах.

  3. Загрузите сертификат YandexCA.crt в файл truststore.jks:

    sudo keytool -import \
                 -file /usr/local/share/ca-certificates/Yandex/YandexCA.crt \
                 -alias "kafka-ui-cert" \
                 -keystore /truststore/truststore.jks
    

    Команда предложит создать пароль. Запомните его — он понадобится для развертывания веб-интерфейса Apache Kafka®.

Подготовьте веб-интерфейс Apache Kafka®Подготовьте веб-интерфейс Apache Kafka®

  1. В ВМ запустите Docker-контейнер, в котором будет развернут веб-интерфейс:

    sudo docker run -it -p 8080:8080 \
       -e DYNAMIC_CONFIG_ENABLED=true \
       -e KAFKA_CLUSTERS_0_NAME=<имя_кластера> \
       -e KAFKA_CLUSTERS_0_BOOTSTRAPSERVERS=<FQDN_хоста>:9091 \
       -e KAFKA_CLUSTERS_0_PROPERTIES_SECURITY_PROTOCOL=SASL_SSL \
       -e KAFKA_CLUSTERS_0_PROPERTIES_SASL_MECHANISM=PLAIN \
       -e KAFKA_CLUSTERS_0_PROPERTIES_CLIENT_DNS_LOOKUP=use_all_dns_ips \
       -e KAFKA_CLUSTERS_0_PROPERTIES_SASL_JAAS_CONFIG='org.apache.kafka.common.security.plain.PlainLoginModule required username="<логин_пользователя>" password="<пароль_пользователя>";' \
       -e KAFKA_CLUSTERS_0_PROPERTIES_SSL_TRUSTSTORE_LOCATION=/truststore/truststore.jks \
       -e KAFKA_CLUSTERS_0_PROPERTIES_SSL_TRUSTSTORE_PASSWORD=<пароль_для_TrustStore> \
       -v /truststore/truststore.jks:/truststore/truststore.jks \
       provectuslabs/kafka-ui
    

    Укажите в переменных окружения:

    • KAFKA_CLUSTERS_0_NAME — имя кластера Managed Service for Apache Kafka®.
    • KAFKA_CLUSTERS_0_BOOTSTRAPSERVERS — FQDN хоста с ролью KAFKA в кластере Managed Service for Apache Kafka®.
    • KAFKA_CLUSTERS_0_PROPERTIES_SASL_JAAS_CONFIG, username — логин пользователя Apache Kafka®.
    • KAFKA_CLUSTERS_0_PROPERTIES_SASL_JAAS_CONFIG, password — пароль пользователя Apache Kafka®.
    • KAFKA_CLUSTERS_0_PROPERTIES_SSL_TRUSTSTORE_PASSWORD — пароль, который вы задали во время создания файла truststore.jks.

    После запуска команда не завершается. Пока она работает, доступен веб-интерфейс Apache Kafka®.

  2. На локальной машине в браузере перейдите по адресу http://<публичный_IP-адрес_ВМ>:8080. Откроется веб-интерфейс Apache Kafka® с данными о кластере Managed Service for Apache Kafka®.

    Публичный IP-адрес ВМ доступен в консоли управления, на странице ВМ.

Развертывание в кластере Managed Service for KubernetesРазвертывание в кластере Managed Service for Kubernetes

Чтобы развернуть веб-интерфейс Apache Kafka® в кластере Managed Service for Kubernetes:

  1. Установите дополнительные зависимости.
  2. Создайте хранилище сертификатов TrustStore.
  3. Разверните приложение с веб-интерфейсом Apache Kafka® в поде Kubernetes.
  4. Проверьте результат.

Если созданные ресурсы вам больше не нужны, удалите их.

Необходимые платные ресурсыНеобходимые платные ресурсы

В стоимость поддержки описываемого решения входят:

  • Плата за кластер Managed Service for Apache Kafka®: использование вычислительных ресурсов, выделенных хостам (в том числе хостам ZooKeeper), и дискового пространства (см. тарифы Apache Kafka®).
  • Плата за кластер Managed Service for Kubernetes: использование мастера и исходящий трафик (см. тарифы Managed Service for Kubernetes).
  • Плата за узлы кластера Managed Service for Kubernetes (ВМ): использование вычислительных ресурсов, операционной системы и хранилища (см. тарифы Compute Cloud).
  • Плата за публичные IP-адреса для хостов кластера Managed Service for Apache Kafka® и узлов кластера Managed Service for Kubernetes, если для них включен публичный доступ (см. тарифы Virtual Private Cloud).

Перед началом работыПеред началом работы

Подготовьте инфраструктуру:

Вручную
Terraform
  1. Настройте единую группу безопасности:

    • Для кластера Managed Service for Apache Kafka® так, чтобы можно было подключаться к топикам через интернет.
    • Для кластера и группы узлов Managed Service for Kubernetes.
  2. Создайте кластер Managed Service for Apache Kafka®. При создании укажите настроенную группу безопасности.

  3. Создайте пользователя Apache Kafka®.

  4. В той же сети, что и кластер Managed Service for Apache Kafka®, создайте кластер Managed Service for Kubernetes. При создании укажите настроенную группу безопасности и предоставьте кластеру публичный адрес.

  5. Создайте группу узлов в кластере Managed Service for Kubernetes. При создании укажите настроенную группу безопасности.

  1. Если у вас еще нет Terraform, установите его.

  2. Получите данные для аутентификации. Вы можете добавить их в переменные окружения или указать далее в файле с настройками провайдера.

  3. Настройте и инициализируйте провайдер. Чтобы не создавать конфигурационный файл с настройками провайдера вручную, скачайте его.

  4. Поместите конфигурационный файл в отдельную рабочую директорию и укажите значения параметров. Если данные для аутентификации не были добавлены в переменные окружения, укажите их в конфигурационном файле.

  5. Скачайте в ту же рабочую директорию файл конфигурации kafka-ui-via-kubernetes.tf.

    В этом файле описаны:

    • Сеть.

    • Подсеть.

    • Группа безопасности по умолчанию и правила, необходимые для подключения из интернета:

      • к кластеру Managed Service for Apache Kafka®;
      • к кластеру Managed Service for Kubernetes;
      • к группе узлов Managed Service for Kubernetes.
    • Кластер Managed Service for Apache Kafka®.

    • Пользователь Apache Kafka®.

    • Кластер Managed Service for Kubernetes.

    • Группа узлов Managed Service for Kubernetes.

  6. Укажите значения переменных в файле kafka-ui-via-kubernetes.tf.

  7. Проверьте корректность файлов конфигурации Terraform с помощью команды:

    terraform validate
    

    Если в файлах конфигурации есть ошибки, Terraform на них укажет.

  8. Создайте необходимую инфраструктуру:

    1. Выполните команду для просмотра планируемых изменений:

      terraform plan
      

      Если конфигурации ресурсов описаны верно, в терминале отобразится список изменяемых ресурсов и их параметров. Это проверочный этап: ресурсы не будут изменены.

    2. Если вас устраивают планируемые изменения, внесите их:

      1. Выполните команду:

        terraform apply
        
      2. Подтвердите изменение ресурсов.

      3. Дождитесь завершения операции.

    В указанном каталоге будут созданы все требуемые ресурсы. Проверить появление ресурсов и их настройки можно в консоли управления.

Установите дополнительные зависимостиУстановите дополнительные зависимости

На локальной машине:

  1. Установите kubectl и настройте его на работу с созданным кластером.

  2. Чтобы проверить доступность кластера Managed Service for Apache Kafka®, подключитесь к одному из его хостов с ролью KAFKA:

    telnet <FQDN_хоста> 9091
    

    FQDN доступен в консоли управления:

    1. Перейдите на страницу кластера.
    2. Перейдите в раздел Хосты.
    3. Скопируйте значение в столбце FQDN хоста, в строке хоста с ролью KAFKA.

    Если кластер доступен, появится сообщение:

    Connected to <FQDN_хоста>
    

    После этого выполнение команды можно прервать, так как далее она не завершается, а ожидает передачи данных.

  3. Установите утилиту keytool для управления ключами и сертификатами:

    sudo apt update && sudo apt install openjdk-19-jre-headless
    

Создайте хранилище сертификатов TrustStoreСоздайте хранилище сертификатов TrustStore

При развертывании Apache Kafka® в кластере Managed Service for Kubernetes команды для TrustStore выполняются на локальной машине.

TrustStore — это хранилище доверенных сертификатов, которое используется в файлах JKS (Java KeyStore). Оно применяется для аутентификации клиента при его подключении к серверу. Сервер валидирует клиента с помощью сертификатов, которые хранятся в TrustStore. При этом клиент хранит приватный ключ и сертификат на своей стороне, в хранилище KeyStore.

В примере ниже TrustStore используется, чтобы подключиться к кластеру Managed Service for Apache Kafka®. Без создания TrustStore в веб-интерфейсе Apache Kafka® не появится информация о кластере.

Чтобы использовать TrustStore:

  1. Создайте SSL-сертификат:

    sudo mkdir -p /usr/local/share/ca-certificates/Yandex/ && \
    sudo wget "https://storage.yandexcloud.kz/cloud-certs/CA.pem" \
         --output-document /usr/local/share/ca-certificates/Yandex/YandexCA.crt && \
    sudo chmod 0655 /usr/local/share/ca-certificates/Yandex/YandexCA.crt
    
  2. Создайте директорию /truststore:

    mkdir /truststore
    

    В ней будет храниться файл truststore.jks. Отдельная директория нужна, чтобы далее путь к файлу был корректно распознан в командах и конфигурационных файлах.

  3. Загрузите сертификат YandexCA.crt в файл truststore.jks:

    sudo keytool -import \
                 -file /usr/local/share/ca-certificates/Yandex/YandexCA.crt \
                 -alias "kafka-ui-cert" \
                 -keystore /truststore/truststore.jks
    

    Команда предложит создать пароль. Запомните его — он понадобится для развертывания веб-интерфейса Apache Kafka®.

Разверните приложение с веб-интерфейсом Apache Kafka® в поде KubernetesРазверните приложение с веб-интерфейсом Apache Kafka® в поде Kubernetes

  1. Чтобы передать поду Kubernetes файл truststore.jks, создайте секрет с этим файлом:

    kubectl create secret generic truststore --from-file=/truststore/truststore.jks
    
  2. Создайте файл kafka-ui-configMap.yaml с конфигурацией configMap. Она содержит информацию о кластере Managed Service for Apache Kafka® и хранилище TrustStore:

    apiVersion: v1
    kind: ConfigMap
    metadata:
       name: kafka-ui-values
    data:
       KAFKA_CLUSTERS_0_NAME: <имя_кластера_Apache Kafka®>
       KAFKA_CLUSTERS_0_BOOTSTRAPSERVERS: <FQDN_хоста>:9091
       KAFKA_CLUSTERS_0_PROPERTIES_SECURITY_PROTOCOL: SASL_SSL
       KAFKA_CLUSTERS_0_PROPERTIES_SASL_MECHANISM: PLAIN
       KAFKA_CLUSTERS_0_PROPERTIES_CLIENT_DNS_LOOKUP: use_all_dns_ips
       KAFKA_CLUSTERS_0_PROPERTIES_SASL_JAAS_CONFIG: 'org.apache.kafka.common.security.plain.PlainLoginModule required username="<логин_пользователя>" password="<пароль_пользователя>";'
       KAFKA_CLUSTERS_0_PROPERTIES_SSL_TRUSTSTORE_LOCATION: /truststore/truststore.jks
       KAFKA_CLUSTERS_0_PROPERTIES_SSL_TRUSTSTORE_PASSWORD: <пароль_для_TrustStore>
       AUTH_TYPE: "DISABLED"
       MANAGEMENT_HEALTH_LDAP_ENABLED: "FALSE"
    

    Укажите в переменных окружения:

    • KAFKA_CLUSTERS_0_NAME — имя кластера Managed Service for Apache Kafka®.
    • KAFKA_CLUSTERS_0_BOOTSTRAPSERVERS — FQDN хоста с ролью KAFKA в кластере Managed Service for Apache Kafka®.
    • KAFKA_CLUSTERS_0_PROPERTIES_SASL_JAAS_CONFIG, username — логин пользователя Apache Kafka®.
    • KAFKA_CLUSTERS_0_PROPERTIES_SASL_JAAS_CONFIG, password — пароль пользователя Apache Kafka®.
    • KAFKA_CLUSTERS_0_PROPERTIES_SSL_TRUSTSTORE_PASSWORD — пароль, который вы задали во время создания файла truststore.jks.
  3. Создайте файл kafka-ui-pod.yaml с конфигурацией пода, в котором будет развернуто приложение с веб-интерфейсом Apache Kafka®:

    apiVersion: v1
    kind: Pod
    metadata:
       name: kafka-ui-pod
    spec:
       containers:
       - name: kafka-ui-pod
         image: provectuslabs/kafka-ui
         envFrom:
            - configMapRef:
                 name: kafka-ui-values
         volumeMounts:
         - name: truststore
           mountPath: "/truststore"
           readOnly: true
       volumes:
       - name: truststore
         secret:
            secretName: truststore
       - name: kafka-ui-configmap
         configMap:
            name: kafka-ui-values
    
  4. Примените конфигурацию configMap:

    kubectl apply -f kafka-ui-configMap.yaml
    
  5. Примените конфигурацию пода:

    kubectl apply -f kafka-ui-pod.yaml
    

Проверьте результатПроверьте результат

  1. Посмотрите логи пода и убедитесь, что веб-интерфейс Apache Kafka® развернут успешно:

    kubectl logs kafka-ui-pod
    

    Результат содержит строки:

     _   _ ___    __             _                _          _  __      __ _
    | | | |_ _|  / _|___ _ _    /_\  _ __ __ _ __| |_  ___  | |/ /__ _ / _| |_____
    | |_| || |  |  _/ _ | '_|  / _ \| '_ / _` / _| ' \/ -_) | ' </ _` |  _| / / _`|
     \___/|___| |_| \___|_|   /_/ \_| .__\__,_\__|_||_\___| |_|\_\__,_|_| |_\_\__,|
                                     |_|                                             
    
    2024-01-23 12:13:25,648 INFO  [background-preinit] o.h.v.i.u.Version: HV000001: Hibernate Validator 8.0.0.Final
    2024-01-23 12:13:25,745 INFO  [main] c.p.k.u.KafkaUiApplication: Starting KafkaUiApplication using Java 17.0.6 with PID 1 (/kafka-ui-api.jar started by kafkaui in /)
    2024-01-23 12:13:25,746 DEBUG [main] c.p.k.u.KafkaUiApplication: Running with Spring Boot v3.0.6, Spring v6.0.8
    2024-01-23 12:13:25,747 INFO  [main] c.p.k.u.KafkaUiApplication: No active profile set, falling back to 1 default profile: "default"
    
  2. Назначьте веб-интерфейс Apache Kafka® на порт 8080:

    kubectl --namespace default port-forward kafka-ui-pod 8080:8080
    
  3. В браузере перейдите по адресу http://127.0.0.1:8080/. Откроется веб-интерфейс Apache Kafka® с данными о кластере Managed Service for Apache Kafka®.

Удалите созданные ресурсыУдалите созданные ресурсы

Некоторые ресурсы платные. Чтобы за них не списывалась плата, удалите ресурсы, которые вы больше не будете использовать:

Вручную
Terraform

Удалите:

  1. Кластер Managed Service for Apache Kafka®.
  2. Виртуальную машину.
  3. Группу узлов Managed Service for Kubernetes.
  4. Кластер Managed Service for Kubernetes.
  1. В терминале перейдите в директорию с планом инфраструктуры.

    Важно

    Убедитесь, что в директории нет Terraform-манифестов с ресурсами, которые вы хотите сохранить. Terraform удаляет все ресурсы, которые были созданы с помощью манифестов в текущей директории.

  2. Удалите ресурсы:

    1. Выполните команду:

      terraform destroy
      
    2. Подтвердите удаление ресурсов и дождитесь завершения операции.

    Все ресурсы, которые были описаны в Terraform-манифестах, будут удалены.

Была ли статья полезна?

Предыдущая
Все руководства
Следующая
Обновление кластера Managed Service for Apache Kafka® с ZooKeeper на KRaft
Проект Яндекса
© 2025 ТОО «Облачные Сервисы Казахстан»