Код 2026-05-14

Kubernetes 1.36 Haru: фокус на безпеці та AI ⚙️

Kubernetes 1.36 Haru: фокус на безпеці та AI ⚙️

Проєкт Kubernetes випустив версію 1.36, назва якої — Haru. Цей реліз є першим великим оновленням системи у 2026 році та знаменує собою суттєвий стрибок у можливостях керування кластерами. Загалом, випуск містить 70 покращень: 18 з них досягли статусу Stable, 25 входять до Beta, а також представлено 25 нових альфа-функцій.

Головний акцент цього релізу зроблено на посиленні безпеки, оптимізації робочих навантажень штучного інтелекту (ШІ) та машинного навчання, а також підвищенні масштабованості API у великих обсягах. Реліз описується як прихід «коли змінюється сезон і світло зміщується на горі», що свідчить про значний етап розвитку платформи.

Посилення безпеки та контроль доступу

Найбільш помітним підвищенням безпеки у версії 1.36 є досягнення загальної доступності (General Availability, GA) для кількох критично важливих функцій. Це дозволяє адміністраторам забезпечити більш глибокий рівень захисту кластера.

Ключові функції, які отримали статус GA:
* User Namespaces: Ця функція відображає кореневого користувача контейнера на непривілейованого користувача на хості. Це гарантує, що процес, який виходить за межі контейнера, не отримуватиме адміністративного доступу до базового вузла.
* Mutating Admission Policies: Ці політики дозволяють командам визначати логіку мутації як нативний об'єкт Kubernetes, використовуючи Common Expression Language (CEL). Це усуває необхідність підтримки окремого вебхук-сервера і надає «нативну високопродуктивну альтернативу традиційним вебхукам», зменшуючи затримку та операційну складність.
* Fine-Grained Kubelet API Authorization: Ця функція забезпечує більш точний контроль доступу з найменшими привілеями до HTTPS API kubelet, замінюючи надто широку дозволену дію nodes/proxy, яку традиційно вимагали інструменти моніторингу та спостережуваності.
* SELinux Volume Labeling: Ця функція досягла стабільності. Вона застосовує правильну мітку SELinux до всього тому під час монтування, замінюючи рекурсивне перемаркування файлів опцією mount -o context=XYZ, що зменшує затримки запуску подів у системах із примусовим застосуванням SELinux.

Управління ресурсами та стабільність кластера

Версія 1.36 значно покращує механізми управління даними та апаратними ресурсами, забезпечуючи кращу надійність і можливість аварійного відновлення.

До GA також увійшли:
* Declarative Validation за допомогою validation-gen: Це дозволяє декларативно визначати валідацію об'єктів Kubernetes.
* Volume Group Snapshots: Ці знімки дозволяють створювати узгоджені знімки для аварійного відновлення через кілька PersistentVolumeClaims одночасно.
* DRA admin access та пріоритетні списки для Dynamic Resource Allocation (DRA): Це надає постійну основу для адміністраторів кластера для глобального доступу, а також гарантує узгодженість логіки вибору ресурсів у середовищах кластерів.

Фокус на робочих навантаженнях ШІ та машинного навчання

Розвиток підтримки ШІ та машинного навчання у v1.36 полягає в тому, що стандартні налаштування нарешті наздоганяють накопичені вимоги цих робочих навантажень. Команда описує цей реліз як «менше про абсолютно нові механізми й більше про те, що стандартні налаштування наздоганяють два роки накопиченої рубцевої тканини ШІ-навантаження».

Кілька покращень DRA досягли Beta та постачаються у цьому релізі з увімкненими за замовчуванням:
* DRA Partitionable Devices
* DRA Consumable Capacity
* DRA Device Taints and Tolerations

Ці елементи замінюють стару модель плагін пристрою integer-GPU, де одна карта виділялася повністю незалежно від фактичного використання. Замість цього тепер використовуються примітиви, які можуть описувати, як сучасні акселератори розділяються, діляться та відновлюються у разі збою.

Головна нова альфа-функція для робочих навантажень ШІ — Workload-Aware Preemption. Ця зміна дозволяє планувальнику більш ефективно керувати ресурсами в умовах високого навантаження від моделей штучного інтелекту, зменшуючи складність багатовузлових розгортань.

Telegram Logo Читайте нас у Telegram: @procodeandevenmore