Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • Машинное обучение
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Истории успеха
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Все решения
    • Все решения для Managed Service for Kubernetes
    • Устранение ошибки `Timed out waiting for the condition` при монтировании PVC
    • Устранение ошибки `Timed out waiting for the condition` при монтировании тома с большим количеством файлов
    • Хосты группы узлов Managed Service for Kubernetes долго находятся в статусе `RECONCILING`
    • Под `kube-dns-autoscaler` постоянно перезапускается
    • Не уменьшается количество нод в группе Managed Service for Kubernetes
    • Не увеличивается количество узлов в группе Managed Service for Kubernetes
    • Устранение ошибки `Multi-Attach error for volume`
    • Устранение ошибки `DEADLINE_EXCEEDED`
    • Устранение ошибок с синхронизацией времени на узлах кластера Managed Service for Kubernetes
    • Устранение проблем с разрешением DNS-имен в Managed Service for Kubernetes
    • Устранение ошибки `0/10 nodes are available - node(s) had untolerated taint`
    • Кластер слишком долго находится в состоянии `STARTING`
    • Поды кластера слишком долго находятся в состоянии `PENDING`
    • Устранение проблем с работой HPA в Managed Service for Kubernetes
    • Устранение ошибки `Can't use allocation_policy.locations.subnet_id together with node_template.network_interface_specs`
    • Устранение проблем с монтированием томов к подам кластера Managed Service for Kubernetes средствами Container Storage Interface для S3
    • Кластер Managed Service for Kubernetes слишком долго находится в состоянии `STARTING` после переименования
    • Как добавлять и изменять SSH-ключи пользователей Linux на хостах группы узлов Managed Service for Kubernetes
    • Как назначить статические внешние IP-адреса для узлов кластера Managed Service for Kubernetes
    • Как выдать узлам Kubernetes доступа в интернет
    • Как изменить сеть или подсеть для MDB-кластера
    • Как создать внутренний Ingress-контроллер
    • Как настроить автоматическое удаление старых образов с узлов Managed Service for Kubernetes
    • Как узнать внешний IP-адрес узла Managed Service for Kubernetes
    • Как использовать сертификаты из Certificate Manager в балансировщиках нагрузки или в Managed Service for Kubernetes
    • Как изменить часовой пояс на узлах кластера Managed Service for Kubernetes
    • Как выяснить размер эфемерного хранилища узла Managed Service for Kubernetes

В этой статье:

  • Описание проблемы
  • Решение
  1. Managed Service for Kubernetes
  2. Под `kube-dns-autoscaler` постоянно перезапускается

Под kube-dns-autoscaler постоянно перезапускается

Статья создана
Yandex Cloud
Обновлена 16 августа 2024 г.
  • Описание проблемы
  • Решение

Описание проблемыОписание проблемы

После обновления Kubernetes и группы узлов с версии 1.21 до версии 1.22 под kube-dns-autoscaler начал постоянно перезапускаться.

РешениеРешение

Мы обновили coredns и cluster-proportional-autoscaler – в них изменилась нотация, и предыдущая версия ConfigMap перестала подходить.

Для решения этой проблемы выполните следующие действия:

  1. Снизьте количество реплик kube-dns-autoscaler до 0:
kubectl scale -n kube-system deploy kube-dns-autoscaler --replicas=0
  1. Добавьте к себе официальный репозиторий cluster-proportional-autoscaler:
helm repo add cluster-proportional-autoscaler [https://kubernetes-sigs.github.io/cluster-proportional-autoscaler](https://kubernetes-sigs.github.io/cluster-proportional-autoscaler "Внешняя ссылка (откроется в новом окне)")\
helm repo update
  1. Пользуясь нашими адаптированными values, установите cluster-proportional-autoscaler.
Установка cluster-proportional-autoscaler
affinity: {}
config:
ladder:
  coresToReplicas:
    - [ 1, 1 ]
    - [ 64, 3 ]
    - [ 512, 5 ]
    - [ 1024, 7 ]
    - [ 2048, 10 ]
    - [ 4096, 15 ]
  nodesToReplicas:
    - [ 1, 1 ]
    - [ 2, 2 ]
image:
  repository: registry.k8s.io/cpa/cluster-proportional-autoscaler
  pullPolicy: IfNotPresent
  tag:
imagePullSecrets: []
fullnameOverride:
nameOverride:
nodeSelector: {}
options:
  alsoLogToStdErr:
  logBacktraceAt:
  logDir: {}
  logLevel:
  --v=6
  # Defaulting to true limits use of ephemeral storage
  logToStdErr: true
  maxSyncFailures:
  namespace: kube-system
  nodeLabels: {}
  #  label1: value1
  #  label2: value2
  pollPeriodSeconds:
  stdErrThreshold:
  target: deployment/coredns
  vmodule:
podAnnotations: {}
podSecurityContext:
  fsGroup: 65534
replicaCount: 1
resources:
  # We usually recommend not to specify default resources and to leave this as a conscious
  # choice for the user. This also increases chances charts run on environments with little
  # resources, such as Minikube. If you do want to specify resources, uncomment the following
  # lines, adjust them as necessary, and remove the curly braces after 'resources:'.
  limits:
    cpu: 100m
    memory: 128Mi
  requests:
    cpu: 100m
    memory: 128Mi
securityContext: {}
  # capabilities:
  #   drop:
  #   - ALL
  # readOnlyRootFilesystem: true
  # runAsNonRoot: true
  # runAsUser: 1000
serviceAccount:
  create: true
  annotations: {}
  # The name of the service account to use.
  # If not set and create is true, a name is generated using the fullname template
  # If set and create is false, no service account will be created and the expectation is that the provided service account already exists or it will use the "default" service account
  name:
tolerations: []
priorityClassName: ""
helm upgrade --install cluster-proportional-autoscaler\
cluster-proportional-autoscaler/cluster-proportional-autoscaler --values values-cpa-dns.yaml

Была ли статья полезна?

Предыдущая
Хосты группы узлов Managed Service for Kubernetes долго находятся в статусе `RECONCILING`
Следующая
Не уменьшается количество нод в группе Managed Service for Kubernetes
Проект Яндекса
© 2025 ООО «Яндекс.Облако»