ProIT: медіа для профі в IT
3 хв

Apple з’ясувала, чого користувачі очікують від ШІ-агентів

author avatar ProIT NEWS

Команда дослідників Apple дослідила, чого реальні користувачі очікують від AI-агентів і як саме вони хотіли б із ними взаємодіяти. Результати показали: ринок активно розвиває самі технології, але користувацький досвід часто залишається поза увагою.

Apple аналізує UX у добу AI-агентів

У дослідженні під назвою Mapping the Design Space of User Experience for Computer Use Agents четверо науковців компанії зазначають, що індустрія зосередилася на розробці та оцінці AI-агентів, проте недостатньо уваги приділяє питанню: як саме користувачі хочуть із ними взаємодіяти і як повинні виглядати ці інтерфейси.

Щоб відповісти на це питання, дослідження розділили на дві фази:

  1. Аналіз наявних UX-патернів і дизайнерських рішень в існуючих AI-агентах.
  2. Перевірка та уточнення цих висновків через практичне дослідження за методом Wizard of Oz.

Спостерігаючи за тим, як різні дизайнерські підходи працюють у реальних сценаріях, дослідники визначили, які з сучасних рішень відповідають очікуванням користувачів, а які — ні.

Фаза 1: таксономія UX

На першому етапі команда проаналізувала дев’ять десктопних, мобільних і веб-агентів, серед яких:

• Claude Computer Use Tool

• Adept

• OpenAI Operator

• AIlice

• Magentic-UI

• UI-TARS

• Project Mariner

• TaxyAI

• AutoGLM

Також дослідники проконсультувалися з «8 практиками — дизайнерами, інженерами та дослідниками, які працюють у сферах UX або AI у великій технологічній компанії». Це дозволило сформувати комплексну таксономію з: 4 основних категорій,  21 підкатегорії, 55 прикладів функцій.

Чотири ключові категорії охоплювали:

1. User Query — як користувач формулює запити
2. Explainability of Agent Activities — яку інформацію про свої дії агент показує користувачеві
3. User Control — як користувач може втрутитися в роботу агента
4. Mental Model & Expectations — як допомогти користувачам зрозуміти можливості агента

Фактично ця структура охоплює все: від способів демонстрації плану дій до механізмів повідомлення про помилки й можливостей зупинити виконання завдання.

Після цього команда перейшла до другої фази.

Фаза 2: експеримент Wizard of Oz

У дослідженні взяли участь 20 користувачів, які вже мали досвід роботи з AI-агентами. Їм запропонували взаємодіяти з агентом через чат-інтерфейс для виконання одного з двох завдань: оренда житла для відпустки та онлайн-покупки.

Користувачі бачили чат-інтерфейс, у якому вводили текстові запити природною мовою. Паралельно відображався інтерфейс виконання, де «агент» взаємодіяв із сайтом.

Насправді ж агентом був дослідник у сусідній кімнаті, який читав інструкції та вручну керував мишею і клавіатурою, імітуючи дії AI. Після завершення завдання в чаті з’являлося повідомлення «task completed». Під час виконання учасники могли натиснути кнопку переривання, після чого з’являлося повідомлення «agent interrupted».

Для кожного сценарію учасники мали виконати шість функцій. Частину з них «агент» навмисно виконував із помилками або застрявав у процесі (наприклад, потрапляв у навігаційний цикл чи обирав інший товар, ніж просив користувач).

Після сесій учасників просили поділитися враженнями та запропонувати покращення. Дослідники також проаналізували відеозаписи й чат-логи, щоб виявити повторювані патерни поведінки та больові точки.

Основні висновки

Після аналізу результатів команда сформулювала кілька ключових інсайтів:

Користувачам важливо бачити, що саме робить агент, але без необхідності контролювати кожен крок. Інакше вони можуть виконати завдання самостійно.

Очікування змінюються залежно від сценарію: під час дослідження варіантів люди хочуть одного типу поведінки агента, а під час виконання знайомих завдань — іншого.

Чим менш знайомий інтерфейс, тим більше користувачі очікують прозорості, пояснень, проміжних кроків і підтверджень — навіть у низькоризикових ситуаціях.

Коли дії мають реальні наслідки (покупки, зміни платіжних даних, контакт із третіми особами), користувачі хочуть більше контролю.

Довіра швидко руйнується, якщо агент робить припущення або помилки без пояснення.

Наприклад, коли агент стикався з неоднозначним вибором на сторінці або відхилявся від початкового плану без чіткого повідомлення, учасники просили систему зупинитися й уточнити дії, а не приймати випадкове рішення.

Так само дискомфорт викликали ситуації, коли агент не пояснював, чому обрав певний варіант, особливо якщо це могло призвести до вибору неправильного товару.

У підсумку дослідження є показовим для розробників застосунків, які планують інтегрувати агентні можливості у свої продукти. Повний текст роботи доступний за посиланням у відкритому доступі.

Чому це важливо

AI-агенти поступово переходять від експериментальної технології до масового використання. Якщо UX не відповідатиме очікуванням людей, навіть найпотужніші моделі не зможуть забезпечити довіру й широке впровадження.

Дослідження Apple фактично задає орієнтири для майбутніх інтерфейсів: більше прозорості, контроль у критичних точках і адаптивна поведінка залежно від контексту.

Читайте на ProIT: ШІ допомагає писати код швидше, але шкодить розвитку спеціалістів — дослідження Anthropic.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.