Хайп навколо штучного інтелекту не вщухає, а великі мовні моделі отримують нові можливості. Пригадаємо, як людство вчилось спілкуватися з алгоритмами та чого чекати від чат-ботів у майбутньому.
ІТ-ринок давно не спостерігав такого ажіотажу, який ми бачимо навколо ChatGPT. Цей чат-бот від компанії OpenAI називають і «вбивцею Google», і тим, хто знищить професії журналіста та копірайтера.
Гонитва за все новими можливостями штучного інтелекту ШІ набирає обертів і ми побачимо ще багато цікавих анонсів, пов’язаних із цією технологією. Натомість ми пропонуємо згадати, як розвивалася технологія взаємодії людей з машинами та спробуємо дати прогнози про те, чого нам варто чекати від ChatGPT та аналогів у майбутньому.
Тест Тюрінга: як людство вчилось відрізняти ботів від людей
У 1950 році Алан Тьюрінг задався питанням, чи може людина спілкуватися з комп’ютерною програмою, не усвідомлюючи, що інша сторона – це машина (алгоритм), а не людина. Сама по собі ідея такого питання отримала назву «тест Тюрінга» і саме його можна вважати першим формулюванням ідеї чат-бота. Цим запитанням Тьюрінг висловив концептуальну ідею голосового чат-бота як інструмента, що може спілкуватися з людиною.
Суть тесту вченого Тьюрінга полягала у спробі зрозуміти, з ким спілкується людина – з іншою людиною чи з комп’ютерною програмою. Завдання алгоритму (програми) – переконати співрозмовника, що він – жива людина. Завдання судді (або людини, що спілкується із невизначеною сутністю) – на основі отриманих відповідей зрозуміти, з ким ведеться діалог – з людиною чи з алгоритмом. Іншими словами, задача тесту Тьюрінга – чітко розрізняти, коли суддя спілкується з алгоритмом, а коли – з людиною.
Тест Тюрінга став справжнім викликом для вчених і розробників, які намагалися створити інструмент, який у діалозі не відрізнявся б від людини. Проходження тесту Тюрінга означає, що людина-суддя не може відрізнити відповідь алгоритму від відповіді людини-співрозмовника.
Тест Тюрінга було розроблено у 90-х роках XX століття. Сучасний чат-бот ChatGPT та його аналоги, що використовують мовну модель GPT, не тільки проходять тест Тюрінга, але й продукують фрагменти тексту, які неможливо відрізнити від тексту, написаного людиною.
Перші чат-боти ELIZA та PARRY
ELIZA – це перший чат-бот, створений у 1966 році. Його розробив Джозеф Вайзенбаум з Массачусетського технологічного інституту. ELIZA був створений для вивчення комунікації між людьми та алгоритмами. Чат-бот був дуже простою симуляцією діалогу психотерапевта з пацієнтом, а точніше пародією на психотерапевта. Він перетворював речення співрозмовника у формат запитань.
Технологічно ELIZA використовувала шаблонне зіставлення та схему вибору відповідей на основі шаблонів. Чат-бот був обмежений за тематикою, не міг взаємодіяти протягом тривалого часу і не розумів контексту дискусії. А свою назву бот отримав від персонажа п’єси «Пігмаліона» Бернада Шоу.
У 1972 році, через 6 років після ELIZA, з’явився чат-бот PARRY. І в його створенні не обійшлося без психіатра – лікар Кеннет Колбі намагався змоделювати за допомогою PARRY діалоги хворих на шизофренію. Ця модель уміла приймати чи відкидати судження, або бути нейтральною. Через це вона могла вести довші та більш «змістовні» розмови.
Новим кроком у розвитку чат-ботів був створений у 1988 році Jabberwacky. На основі моделі «контекстної відповідності шаблону» цей чат-бот вмів додавати речення свого співрозмовника до діалогу.
Унікальність проєкту полягала у тому, що це була перша модель, яка могла навчатися, тобто використовувати елементи штучного інтелекту. Створений у 1995 році чат-бот ALICE (Automatic Linguistic Internet Computer Examiner) був першим, який пройшов тест Тюрінга. Він став прототипом комп’ютера, в якого закохалася героїня фільму «Вона» про кохання між чоловіком та машиною.
21 століття – від Siri та розумних колонок до ChatGPT
У 2011 році компанія Apple запустила віртуального помічника Siri, який умів вести діалоги та реагувати на команди голосом. Цей чат-бот відрізнявся тим, що міг використовувати контекст під час розмови. Серйозним проривом було вміння оперувати даними з інших онлайн-сервісів: календаря, погоди, пошуку в Мережі.
У 2016 році свого віртуального помічника Google Assistant показала Google. Згодом Google інтегрувала Google Assistant у домашню смарт-колонку Google Home.
Віртуальний асистент Cortana від Microsoft було представлено у 2014 році, потім компанія його додала у свої платформи Windows Phone і Windows 10. Проте у 2021 році видалила відповідні застосунки з магазинів програм і припинила підтримку чат-ботів.
У 2016 році Microsoft представила іншого чат-бота Tay, який з’явився вперше на платформі Twitter. Це був якраз повноцінний AI-продукт, який повинен був навчатися у своїх співрозмовників за допомогою діалогів із ним у Twitter. Корпорації довелося закрити доступ до боту через те, що він почав дозволяти собі расистські й інші нетолерантні висловлювання.
Свого бота віртуального помічника Amazon Alexa створила й компанія Amazon як голосовий інтерфейс до смарт-колонок Amazon Echo.
Справжнім революціонером у розвитку чат-ботів стала компанія OpenAI. У 2020 році OpenAI представила мовну модель GPT-3, яку використовує ChatGPT – найвідоміший на сьогодні й найдосконаліший чат-бот, який здатен вести діалоги з людьми. В березні 2023 року OpenAI представила удосконалену версію GPT-4.
Утилітарне технологічне AI-майбутнє
Аби зрозуміти, як саме чатботи та штучний інтелект розвиватиметься в майбутньому, ми звернулися за коментарями до компаній, які працюють з AI-проєктами й попросили окреслити те, чого нам варто чекати від великих мовних моделей і штучного інтелекту загалом.
Вадим Власенко, Solution Architect в EPAM Україна переконаний, що за умови появи альтернативних мовних моделей в OpenAI (розробника ChatGPT) зараз є два варіанти: або цей продукт та його моделі будуть удосконалювати, додавати інноваційні та унікальні можливості, або ж він і надалі буде втрачати позиції:
«Якщо говорити загалом про майбутнє чат ботів, то варто визначити три рівні складності та використання цих моделей: від простого отримання інформації до персоналізованих рекомендацій та виконання дій. Перший рівень – це коли ми спілкуємося, наприклад, з ChatGPT просто як з чат ботом: запитуємо інформацію, отримуємо відповідь. Другий рівень – це коли ми спілкуємося з GPT моделлю за допомогою API і додаємо свої приватні дані. В цьому випадку ми можемо будувати чат боти на основі своєї інформації. Наприклад, ми можемо створити боти для підтримки e-commerce-проекту, який буде здатен пропонувати вам певний товар за вашими інтересами. Третій рівень – це вже рівень агентів, коли ми даємо моделі певний набір інструментів (google пошук, відправка emails, переклади тощо) і LLM-модель вже сама на цей запит буде вибирати інструмент, який їй варто використати. Більше того, коли ця модель, використовуючи певний інструмент, отримає відповідь, то не зупиниться на досягнутому, а буде далі «думати», чи достатньо цієї відповіді, чи можливо ще якийсь інструмент варто використати для того, щоб повністю задовольнити запит».
Євген Моспан, старший директор з архітектури рішень в ЕРАМ Україна, пояснює:
«Сьогодні лише з’являється можливість у чат-бота з’ясувати у користувача додаткову інформацію та використати її під час ухвалення рішень. У масовому використанні такі боти з’являться, коли вони умітимуть точно визначити, а що ж саме хоче користувач. Сама модель ще недостатньо просунута для того, щоб гарантувати, що дія буде правильно зафіксована, вірно протрактована і потім коректно виконана. Станом на зараз – це головний виклик для інженерів, який не дозволяє забезпечити ефективне впровадження таких моделей, хоча й технологічна база для цього вже є. Коли буде створена критична маса вдалих плагінів та агентів, то створювати подібні боти буде набагато простіше і вони будуть більш функціональними – буде можливостей щось створювати після взаємодії користувача з ботом.
Наведу приклад такої взаємодії. Кажемо боту: «Я хочу купити воду». Він може мене спитати, яка саме мені потрібна вода: слабогазована чи негазована, скільки потрібно цієї води, для чого, можливо я планую банкет чи вона потрібна для домашнього використання. Якщо ми скажемо, що плануємо банкет, то AI-інструмент може запропонувати взяти воду певного бренду в пляшках, бо це виглядає більш презентабельно і продемонструє це відповідними фотографіями, як це буде виглядати на столі, далі він знайде релевантні інтернет-магазини і якщо я підтверджу свій вибір, то агент зможе зробити відповідне замовлення для мене. І таких прикладів можна придумати сотні. Тобто бот буде не просто розуміти, про що ми його питаємо і відповідати текстом, а фактично на основі інформації, яку ми йому подали чи голосом, виконувати дію. І на мою думку, саме цей тренд стане основним у розвитку чат-ботів у найближчому майбутньому».
Штучний інтелект та кіберзлочини
Окремо ми поцікавилися, чи зможуть чатботи та штучний інтелект у майбутньому допомагати у створенні надзвичайно ефективних кібератак.
Павло Бєлоусов, експерт з питань цифрової безпеки ГО «Інтерньюз-Україна», консультант Школи цифрової безпеки DSS380, пояснює, що поки чат-боти не можна розглядати як помічників та захисників від кібератак:
«Частково сьогодні захист можна перекласти на алгоритми чи на ChatGPT, але загалом допомагати із безпекою все ж має людина. Наприклад, шахраї обходять майже будь-які технічні обмеження. Поки алгоритми навчаться розпізнавати нові загрози, злам чи викрадення даних стануть успішними. Сьогодні всі ці моделі працюють на «попередньому досвіді» та можуть не ідентифікувати «свіжу» шахрайську схему. Тому сьогодні ChatGPT можна розглядати більше як помічника, який зекономить час, або «розпізнає» щось дуже просте, але у цифровій безпеці він не є повноцінною заміною фахівця. Особливо, коли ChatGPT скаже, що все добре і проблем нема – такій його пораді довіряти не варто. А от коли ChatGPT ідентифікує шахрайство, то тут йому варто повірити».
Артем Михайлов, директор із корпоративних рішень ISSP, деталізував можливість використання чат-ботів у кібербезпеці:
«Якими б розумними не здавались алгоритми штучного інтелекту, ці чат-боти не можуть повністю замінити людину, особливо коли йдеться про протидію кіберзлочинцям. Наразі багато компаній працюють над так званими AI-Copilot і індустрія кібербезпеки не виключення. В теорії такі «другі пілоти» мають потенціал, але на практиці поки що лише деякі компанії, такі як Crowdstrike чи Microsoft, наблизились до їх тестування.
Усі великі мовні моделі умовно вгадують наступне слово при генерації тексті. Саме тому вони не можуть самостійно ухвалювати рішення. Натомість вже сьогодні хакери активно використовують AI для створення фішингових листів і допрацювання зловмисного коду. Водночас AI відкриває нові горизонти для покращення ефективності кібербезпеки. AI може використовуватися для поліпшення виявлення зловмисників та автоматизації рутинних процесів, таких як патчінг і оновлення. AI можуть спростити комунікацію між фахівцями. А от де чат-боти можуть бути майже ідеальними помічниками, так це у навчанні співробітників та підвищенні їхнього рівня кібергігієни».
Чат-боти як викривачі корупціонерів і злочинців
Поділився з нами можливостями використання штучного інтелекту в OSINT-діяльності експерт компанії Molfar на умовах анонімності:
«Перш за все треба розуміти, що доступні нам AI-інструменти – це лише верхівка айсберга. Зазвичай закриті інструменти штучного інтелекту на 1-2 роки випереджають загальнодоступні. Тому вже зараз можна приблизно розуміти масштаби, до яких дійшли технології на сьогоднішній день. Інструменти на кшалт ChatGPT частково уже виконують задачі, які робила людина. В найближчі кілька років штучний інтелект стане помічником у повсякденному житті, яким свого часу став смартфон.
У сфері OSINT штучний інтелект є корисним помічником, коли треба перевірити та проаналізувати великий масив даних. Наприклад, є якась компанія, яка на ринку працює 10 років та має 20 тисяч відгуків. На перечитування й аналіз такої кількості відгуків потрібно багато часу і не гарантовано, що результат аналізу буде корисним. А штучний інтелект зможе це все зробити за декілька хвилин. Натомість людина повинна буде уміти правильно та чітко сформулювати задачу AI. У нашому умовному прикладі можна попросити штучний інтелект проаналізувати масив даних з відгуками та тезисно виписати негативні відгуки. Також можна попросити ШІ розділити негативні відгуки за роками й до кожного тезису додати кількість згадок на рік.
Іншим прикладом застосування ШІ-інструментів в OSINT може бути використання його як парсера. У цьому сценарії використання штучного інтелекту дуже допомагатиме, коли інформація для парсингу розташована несистематизовано й одноманітно, тобто спеціалізовані програми для парсингу доведеться дуже довго налаштовувати, а потім ще й вичищати зайву непотрібну інформацію з результатів. Наприклад, потрібно проаналізувати відому юридичну особу – зібрати усі сайти, де вона згадується. ChatGPT може за декілька хвилин зібрати усі сайти та зекономити OSINT-спеціалісту багато часу».
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодну публікацію!