Компанія F5, яка займається безпекою та доставкою програм, зробила загальнодоступною інтегровану мережеву платформу застосунків F5 NGINX One.
Вона централізовано керує балансуванням навантаження, вебсерверами та серверами застосунків, шлюзами інтерфейсу прикладного програмування (API) та кібербезпекою. Про це компанія оголосила на своєму сайті.
Тепер клієнти можуть просто керувати екземплярами F5 NGINX і NGINX Open Source і захищати їх за допомогою єдиного хмарного інтерфейсу керування.
Єдина платформа полегшує розгортання технології NGINX. NGINX One об’єднує раніше окремі пропозиції NGINX Plus, NGINX Open Source, NGINX Unit, NGINX Gateway Fabric і Kubernetes Ingress Controller в уніфіковане рішення, що сприяє економії коштів і спрощеному розгортанню.
Шон Вормке, віцепрезидент і генеральний менеджер NGINX в F5, сказав, що NGINX One дає змогу керувати екземплярами F5 NGINX і NGINX Open Source через платформу програмного забезпечення як послуги (SaaS) через одну консоль.
«Успішне розгортання програми — це командний вид спорту. Функції доставки застосунків і безпеки, а також відповідна видимість часто розподілені між окремими групами. NGINX One ідеально підходить для сучасних, ефемерних і хмарних компонентів застосунків, таких як контейнери та Kubernetes, забезпечуючи рішення, яке економічно ефективно оптимізує, масштабує та захищає складні середовища застосунків та API для кількох команд», — повідомив Шон Вормке.
Крім того, NGINX One надає доступ до додаткових даних телеметрії та можливостей штучного інтелекту, які полегшують розгортання та керування застосунками у масштабі.
Загалом мережеві застосунки стали складнішими з появою хмарних застосунків на основі мікросервісів.
За словами Вормке, зменшуючи когнітивне навантаження, необхідне для мережевих застосунків, стає простіше зробити мережеві операції та операції безпеки більш природним розширенням робочих процесів DevOps.
Наприклад, команда розробників платформи може створити набір шаблонів для інтеграції застосунків, які окремі групи розробників застосунків можуть потім налаштувати відповідно до конкретних вимог.
В інших випадках команда мережевих операцій може реалізувати ці шаблони від імені команди DevOps.
Більшість організацій мають певний рівень досвіду розробки мережевих застосунків за допомогою проксі-серверів, але сьогодні зростає потреба у шлюзах і вхідних контролерах, щоб забезпечити ці можливості в масштабі.
У результаті все більше ІТ-організацій починають переглядати свою структуру. Мета полягає в тому, щоб мати змогу динамічно надавати мережеві служби застосунків, не чекаючи, поки адміністратор мережі надасть їх.
Сьогодні за межами середовища хмарних обчислень ІТ-команди все ще зазвичай надають віртуальні машини або модулі Kubernetes лише за кілька годин, однак треба чекати кілька днів або навіть тижнів, поки мережеве з’єднання буде забезпечено.
ІТ-середовище стає все більш гібридним, тому існує очевидна потреба в більш гнучкому підході.
Читайте також на ProIT: F5 оптимізує мережеві програми NGINX: тепер вони доступні за єдиною ліцензією.
Також ми розповідали, яким був 2023 рік для DevOps: огляд стану ринку.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!