У нас есть NodePool, предназначенный для агентов CI. Когда все будет работать правильно, наш CI-контроллер создаст модуль для CI-агента, и NodePool будет автоматически масштабироваться с помощью автомасштабирования GCP. Это означает, что у модулей будет следующее событие, говорящее о том, что ни один узел не соответствует их сходству:
Доступно 0/3 узла: 3 узла (узлов) не соответствуют привязке/селектору узлов Pod.
И новые узлы в конечном итоге будут подключены к сети через короткое время. Однако в большинстве случаев программа автомасштабирования не может сказать, что:
Модуль не инициировал масштабирование: 3 Недостаточно эфемерного хранилища, 6 узлов не соответствуют привязке/селектору узлов модуля.
Когда это происходит, мне приходится вручную масштабировать NodePool через пользовательский интерфейс GCP в разделе NodePool, который работает немедленно.
Я вполне уверен, что где-то между Kubernetes и инфраструктурой GCP есть ошибка, возможно, автомасштабирование. Что вы думаете?
Вот конфигурация NodePool, если это может помочь:
autoscaling:
enabled: true
maxNodeCount: 3
config:
diskSizeGb: 100
diskType: pd-standard
ephemeralStorageConfig:
localSsdCount: 2
imageType: COS_CONTAINERD
labels:
_redacted_: 'true'
machineType: c2-standard-16
metadata:
disable-legacy-endpoints: 'true'
oauthScopes:
- https://www.googleapis.com/auth/cloud-platform
preemptible: true
serviceAccount: _redacted_
shieldedInstanceConfig:
enableIntegrityMonitoring: true
tags:
- gke-main
taints:
- effect: NO_SCHEDULE
key: _redacted_
value: 'true'
workloadMetadataConfig:
mode: GKE_METADATA
initialNodeCount: 1
instanceGroupUrls:
- _redacted_
locations:
- europe-west1-c
- europe-west1-b
- europe-west1-d
management:
autoRepair: true
autoUpgrade: true
maxPodsConstraint:
maxPodsPerNode: '110'
name: gha
networkConfig:
podIpv4CidrBlock: 10.0.0.0/17
podRange: main-europe-west1-pods
podIpv4CidrSize: 24
selfLink: _redacted_
status: RUNNING
upgradeSettings:
maxSurge: 1
version: 1.21.11-gke.900
Спасибо!
ЯСинийСлизь