Компанія Google додала інструмент генеративного штучного інтелекту (ШІ), який отримав назву Gemini Cloud Assist, для автоматизації ширшого спектру завдань протягом життєвого циклу розробки програмного забезпечення.
ШІ-інструмент також допоможе з усуненням неполадок у застосунках, що працюють на Google Cloud Platform (GCP), для надання рекомендацій щодо підвищення продуктивності та безпеки. Про це повідомляє DevOps.com.
Оголошений на конференції Google Cloud Next 2024, Gemini Cloud Assist інтегровано з наявними можливостями публікації та підписки, щоб дати змогу командам DevOps запускати генеративні підказки штучного інтелекту для автоматизації завдань, які раніше вимагали розробки сценарію.
Також Gemini Cloud Assist може генерувати конфігурації архітектури на основі коду, що розгортається.
Водночас Google робить доступним через приватний попередній перегляд оновлення інструменту Gemini Code Assist для створення коду, навченого на великій мовній моделі на основі одного мільйона токенів.
Бред Колдер, віцепрезидент і генеральний менеджер із GCP і технічної інфраструктури, розповів учасникам конференції, що версія 1.5 Gemini Code Assist тепер генеруватиме код на основі найбільшого LLM, навченого з використанням коду, перевіреного Google, для отримання надійніших результатів.
Надалі завдання полягатиме в тому, щоб визначити, де закінчується межа між генеративними інструментами ШІ, наданими постачальником хмарних послуг, таким як Google, і де починаються генеративні інструменти ШІ, надані партнерами Google, такими як GitLab.
Компанія тісно співпрацює з Google, щоб розвивати свої можливості Duo AI, використовуючи основні сервіси, які вона надає через свою платформу Vertex для керування операціями машинного навчання (MLOps).
Девід ДеСанто, директор із продуктів GitLab, сказав, що оскільки штучний інтелект застосовується до робочих процесів DevSecOps, можливості маршрутизації, розроблені GitLab, спростять оркестрування підказок, які можна застосовувати до кількох LLM.
Більшості команд DevOps не знадобиться прямий доступ до LLM, оскільки підказки природної мови, які вони створюють, виконуватимуться базовою платформою.
Поки що незрозуміло, до якої міри штучний інтелект здатний автоматизувати робочі процеси DevSecOps. Механізми міркування, вбудовані в LLM, стають більш досконалими, тож здатність цих платформ автоматизувати ручні завдання лише зростатиме. Оскільки ці завдання вручну буде скасовано, продуктивність розробника має суттєво зрости, адже, наприклад, для розкручування середовища віддаленої розробки буде потрібно набагато менше часу.
Раніше ProIT повідомляв, що Google Photos скасовує платну підписку на інструменти редагування на основі ШІ.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!