Щоб отримати максимальну віддачу від інструментів генеративного штучного інтелекту (GenAI), таких як GitHub Copilot або ChatGPT, ви повинні бути готові прийняти чотири суперечливі думки, стверджує засновник Datasette Саймон Віллісон.
А саме: штучний інтелект – це не наш порятунок і не наша загибель, ані порожній галас, ані вирішення будь-якої проблеми. Нічого з цього, а все одночасно. Як каже Віллісон, «Найдивніше те, що всі ці варіанти правильні!», повідомляє InfoWorld.
Видання закликає експериментувати зі штучним інтелектом скільки завгодно, але сприймати результати з деяким скептицизмом. Особливо якщо нейромережа використовується для написання коду.
Усе залежить від того, як ви використовуєте інструменти GenAI та на що розраховуєте.
«Якщо ви очікуєте, що помічник із генерації коду, як-от AWS CodeWhisperer, створить ідеальний код, який ви зможете прийняти та використовувати без змін, то будете розчаровані. Але якщо ви використовуєте ці інструменти для доповнення навичок розробника, вас може чекати дуже позитивний сюрприз», – йдеться в матеріалі.
Проблема полягає у тому, що надто багато компаній повелись на ажіотаж та очікують, що GenAI стане чарівними ліками від їхніх проблем.
Як підкреслює аналітик Gartner Стен Аронов, нещодавнє опитування Gartner показало, що «майже 70% бізнес-лідерів вважають, що переваги [GenAI] переважають над ризиками, незважаючи на обмежене розуміння точної застосованості генеративного ШІ та ризиків».
Говорячи про великі мовні моделі (LLM), Віллісон зауважив:
«Таке відчуття, ніби 3 роки тому інопланетяни з’явилися на Землі, дали нам USB-накопичувач із цією штукою, а потім пішли. І з тих пір ми намагаємося з’ясувати, на що він здатний».
Проблема (і можливість) LLM, продовжує Віллісон, полягає у тому, що «ви дуже рідко отримуєте те, що насправді просили».
Звідси поява оперативного проєктування, оскільки ми шукаємо способи змусити LLM давати більше того, чого ми хочемо, і менше того, чого ми не хочемо.
Дехто припускає, що ШІ-помічники у кодуванні стануть величезною перевагою для некваліфікованих розробників. Зрештою це могло бути правдою, але сьогодні це не так.
Неможливо належним чином довіряти результатам LLM, не маючи достатнього досвіду, щоб оцінити його результати. Віллісон наголосив:
«Щоб отримати найкращі результати від них, насправді потрібна ціла купа знань і досвіду. Багато в чому це залежить від інтуїції».
Майк Лукідес із O’Reilly Media пише: «Ми не можемо настільки зациклюватися на автоматичному створенні коду, щоб забути про контроль над складністю».
Наприклад, розробник не може запропонувати LLM зменшити складність свого коду, оскільки незрозуміло, що це означатиме. Скорочення рядків коду?
«Мінімізація рядків коду іноді призводить до простоти, але так само часто призводить до складних заклинань, які упаковують кілька ідей в один рядок, часто покладаючись на незадокументовані побічні ефекти», – говорить Лукідес.
Комп’ютери не переймаються складністю коду, але це важливо для людей, яким потрібно буде налагоджувати його та розуміти його через роки.
Зараз триває лише ранній етап еволюції штучного інтелекту, незважаючи на те, що він існує десятиліттями. Ми в техніці любимо випереджати себе. Ми діємо так, ніби хмара є усталеною нормою, хоча вона все ще становить лише 10% або близько того від усіх витрат на ІТ. Незважаючи на потік інвестицій у ШІ, це навіть не 0,01%.
На думку Віллісона, зараз саме час перевірити різні LLM та пов’язані з ними інструменти кодування.
«Метою має бути не визначення того, яка з LLM виконає всю нашу роботу за нас, а скоріше виявлення їхніх сильних і слабких сторін, дослідження й підказки, доки ми не дізнаємося, як використовувати їхні сильні сторони та недоліки на нашу користь», – зауважує автор видання.
Раніше ми розповідали, як налаштувати або заблокувати вебкраулер GPTBot від OpenAI.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодну публікацію!