Yandex Cloud
Поиск
Связаться с намиПопробовать бесплатно
  • Истории успеха
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
  • Marketplace
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Искусственный интеллект
    • Безопасность
    • Инструменты DevOps
    • Бессерверные вычисления
    • Управление ресурсами
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Калькулятор цен
    • Тарифы
    • Акции и free tier
  • Истории успеха
  • Документация
  • Блог
Создавайте контент и получайте гранты!Готовы написать своё руководство? Участвуйте в контент-программе и получайте гранты на работу с облачными сервисами!
Подробнее о программе
Проект Яндекса
© 2026 ООО «Яндекс.Облако»
Terraform в Yandex Cloud
  • Начало работы
  • Библиотека решений
    • Обзор
    • История изменений (англ.)
          • mdb_kafka_cluster
          • mdb_kafka_connector
          • mdb_kafka_topic
          • mdb_kafka_user

В этой статье:

  • Example usage
  • Arguments & Attributes Reference
  1. Справочник Terraform
  2. Ресурсы (англ.)
  3. Managed Service for Apache Kafka®
  4. Data Sources
  5. mdb_kafka_connector

yandex_mdb_kafka_connector (DataSource)

Статья создана
Yandex Cloud
Обновлена 9 февраля 2026 г.
  • Example usage
  • Arguments & Attributes Reference

Get information about a connector of the Yandex Managed Kafka cluster. For more information, see the official documentation.

Example usageExample usage

//
// Get information about existing MDB Kafka Connector.
//
data "yandex_mdb_kafka_connector" "foo" {
  cluster_id = "some_cluster_id"
  name       = "test"
}

output "tasks_max" {
  value = data.yandex_mdb_kafka_connector.foo.tasks_max
}

Arguments & Attributes ReferenceArguments & Attributes Reference

  • cluster_id (Required)(String). The ID of the Kafka cluster.
  • connector_config_mirrormaker [Block]. Settings for MirrorMaker2 connector.
    • replication_factor (Required)(Number). Replication factor for topics created in target cluster.
    • source_cluster [Block]. Settings for source cluster.
      • alias (String). Name of the cluster. Used also as a topic prefix.
      • external_cluster [Block]. Connection settings for external cluster.
        • bootstrap_servers (Required)(String). List of bootstrap servers to connect to cluster.
        • sasl_mechanism (String). Type of SASL authentification mechanism to use.
        • sasl_password (String). Password to use in SASL authentification mechanism
        • sasl_username (String). Username to use in SASL authentification mechanism.
        • security_protocol (String). Security protocol to use.
      • this_cluster [Block]. Using this section in the cluster definition (source or target) means it's this cluster.
    • target_cluster [Block]. Settings for target cluster.
      • alias (String). Name of the cluster. Used also as a topic prefix.
      • external_cluster [Block]. Connection settings for external cluster.
        • bootstrap_servers (Required)(String). List of bootstrap servers to connect to cluster.
        • sasl_mechanism (String). Type of SASL authentification mechanism to use.
        • sasl_password (String). Password to use in SASL authentification mechanism
        • sasl_username (String). Username to use in SASL authentification mechanism.
        • security_protocol (String). Security protocol to use.
      • this_cluster [Block]. Using this section in the cluster definition (source or target) means it's this cluster.
    • topics (Required)(String). The pattern for topic names to be replicated.
  • connector_config_s3_sink [Block]. Settings for S3 Sink connector.
    • file_compression_type (Required)(String). Compression type for messages. Cannot be changed.
    • file_max_records (Number). Max records per file.
    • s3_connection [Block]. Settings for connection to s3-compatible storage.
      • bucket_name (Required)(String). Name of the bucket in s3-compatible storage.
      • external_s3 [Block]. Connection params for external s3-compatible storage.
        • access_key_id (String). ID of aws-compatible static key.
        • endpoint (Required)(String). URL of s3-compatible storage.
        • region (String). Region of s3-compatible storage. Available region list.
        • secret_access_key (String). Secret key of aws-compatible static key.
    • topics (Required)(String). The pattern for topic names to be copied to s3 bucket.
  • id (String).
  • name (Required)(String). The resource name.
  • properties (Map Of String). Additional properties for connector.
  • tasks_max (Number). The number of the connector's parallel working tasks. Default is the number of brokers.

Была ли статья полезна?

Предыдущая
mdb_kafka_cluster
Следующая
mdb_kafka_topic
Создавайте контент и получайте гранты!Готовы написать своё руководство? Участвуйте в контент-программе и получайте гранты на работу с облачными сервисами!
Подробнее о программе
Проект Яндекса
© 2026 ООО «Яндекс.Облако»