Компанія OpenAI анонсувала нову версію GPT-4 Omni. Вона набагато розумніша за всі попередні версії й буде доступна безкоштовно.
Так, ця модель може спілкуватися з людиною, обробляючи текст, аудіо та відео із фронтальної камери, а також має неймовірно реалістичний голос та вимову.
Компанія підкреслює, що її місія – ШІ, що працює на користь людства.
Ключові оголошення від OpenAI:
- ChatGPT отримує новий спрощений інтерфейс, що зʼявиться разом із новим повноцінним desktop-застосунком. Раніше ж використання було можливе через web чи WebApp.
- GPT-4o – це нова полегшена версія ШІ-моделі, доступна навіть безплатним користувачам.
Головні оновлення ChatGPT:
- Працює з усім контентом: текст, зображення і звук.
- Знає 50 мов, запам’ятовує діалоги.
- Поліпшена якість перекладу текстів на 50%.
- Додано голосового асистента, якого практично не відрізнити від людини. Він розуміє емоції й тон людини, сміється і бентежиться.
- За допомогою помічника можна перекладати мову з іншої мови практично без затримки.
- Може виходити в Інтернет та збирати інформацію з мережі.
Всі оновлення стануть доступними протягом кількох тижнів, каже технологічна керівниця компанії Міра Мураті.
«GPT-4o забезпечує рівень обізнаності, властивий 4-му поколінню, однак значно випереджає його, маючи кращі навички роботи з текстом, візуалами й аудіо», – заявила на презентації Міра Мураті, CTO OpenAI.
Компанія називає поєднання цих трьох напрямів у моделі «омнімоделлю».
Нагадаємо, GPT-моделі були розроблені спершу як мовні моделі (LLM). Робота із файлами та медіа була додана значно пізніше.
За даними OpenAI, понад 100 мільйонів осіб регулярно використовують ChatGPT. Згідно з проведеними підрахунками, із 50 підтримуваними мовами моделі компанії покривають понад 97% населення планети.
У безоплатний доступ, який розширює компанія шляхом запуску нової варіації моделі, входитимуть також GPTs – розроблені на основі ChatGPT кастомізовані застосунки із розробкою на доступному усім рівні.
GPT-4o має досить широкий спектр безоплатного функціоналу, однак компанія зберегла платний прошарок.
«Сплачуючи за використання, Ви маєте у 5 разів менші обмеження на те, що модель може для Вас зробити», – підкреслила Міра Мураті.
Серед переваг відносно попередньої ітерації GPT-4 Turbo також удвічі збільшена швидкість та удвічі зменшена вартість платного використання.
Ще серед покращень – більше жодного очікування на 3-5 секунд, доки модель подумає і відповість. Рівень емоційності, акцент і стиль мови можна визначати голосовими командами прямо під час «розмови» із чатботом.
Розробники наголошують, що модель можна скерувати бути «помічницею». Тобто не давати готову відповідь (на що орієнтовані всі моделі), а лише давати підказки.
Таким чином, ChatGPT стає корисним помічником в академічній сфері, не заміняючи мислення студента. Модель, по суті, має режим вчителя.
У процесі демонстрації розробники спілкувалися із моделлю голосом. Вона демонструвала здатність розпізнавати рукописний текст навіть за умови постійного руху камери. Раніше ж для цього необхідно було завантажувати знімки.
Візуальне розпізнавання моделі – це третя складова демонстрації. Застосунку дозволено бачити екран, він детально пояснює та аналізує все, що бачить. Нова модель здатна розпізнавати візуали не лише буквально, а й простежуючи тенденції, роблячи припущення тощо.
В OpenAI наголосили, що робота технології не була б можливою без потужностей графічних процесорів NVIDIA.
Читайте також на ProIT: Microsoft може представити нову модель штучного інтелекту MAI-1 вже у травні.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!