Дослідники з Google DeepMind представили робота зі штучним інтелектом, який не тільки може грати в настільний теніс із людьми, але й може вигравати матчі майже в половині випадків.
Відповідно до нещодавньої статті Лабораторії штучного інтелекту, опублікованої в Arxiv, це перший робот-агент, здатний займатися спортом із людьми на рівні з людиною, повідомляє Observer.
Згідно з документом, система є важливою віхою у навчанні та контролі роботів, особливо щодо здатності масштабувати їхнє навчання до складних фізичних завдань, які можуть залучати людину-партнера або супротивника.
Окрім перемог у 45% ігор проти 29 суперників, матчі з роботом, що грає в настільний теніс, все ще були приємними для більш досвідчених гравців, які описували систему як багатообіцяючого партнера для тренувань.
За даними Google DeepMind, настільний теніс є плідною сферою досліджень робототехніки з 1980-х років завдяки таким якостям цього виду спорту, як високошвидкісний рух, точний контроль, ухвалення рішень у реальному часі та взаємодія між людиною та роботом.
До цих пір жодна попередня версія робота не вирішувала проблему конкурентоспроможної гри, в якій робот грає повну гру в настільний теніс проти раніше невідомого суперника-людини, заявили в Лабораторії ШІ.
Робот, який складається із роботизованої руки, що тримає ракетку, надруковану на 3D-принтері, був навчений на великому наборі даних із низькорівневих навичок. Вони включали такі аспекти, як форхенд з обертанням, подача форхендом або бекхенд націлювання.
Здатний вибрати оптимальну навичку для конкретної ситуації з урахуванням статистики гри та можливостей суперника, він продовжував навчатися під час матчів і тому з часом вдосконалювався.
Загалом робот зіграв 29 матчів проти гравців із рівнями навичок від початкового до просунутого та вище.
Він переміг усіх початківців, але програв 55% ігор проти опонентів середнього рівня і не виграв жодного матчу проти більш досвідчених гравців. Це свідчить про його власний середній рівень майстерності.
Більш досвідчені гравці також змогли виявити та використати слабкі сторони робота, такі як його обмеження в оцінці обертання, слабший бекхенд і ймовірність пропустити низькі м’ячі через протокол уникнення зіткнення в його системі.
Пройшовши по три матчі з роботом, гравці описали ігри як «веселі» та «захопливі».
Коли їх запитали, наскільки їм було б цікаво знову пограти з роботом за шкалою від 1 до 5, гравці дали середню відповідь 4,87.
Який вплив матиме ця система на майбутні дослідження робототехніки?
За даними Google DeepMind, ігри та спорт вже давно є плідною сферою для експериментів зі штучним інтелектом та робототехнікою.
«З перших днів застосування ШІ шахи та інші конкурентні ігри відігравали критичну роль у розробці нових алгоритмів і технологій», — йдеться у повідомленні.
У статті зазначається, що агентів ШІ можна знайти в таких іграх, як бекгаммон, покер, Dota 2 і Go.
Google DeepMind раніше розробив такі програми, як AlphaGo, яка у 2016 році помітно перемогла Лі Седоля, провідного гравця у Go.
За словами фахівців Google DeepMind, потрібно багато працювати, щоб зрештою створити роботів, здатних виконувати корисні завдання та безпечно взаємодіяти із людьми.
Водночас його роботизована рука для гри в настільний теніс демонструє невеликий крок у правильному напрямку та на шляху до давньої мети в робототехніці — досягнення продуктивності людського рівня щодо багатьох корисних реальних навичок.
Раніше ми повідомляли, що Tesla випустить гуманоїдних роботів для внутрішнього використання вже наступного року.
У 2026 році компанія планує запустити велике виробництво людиноподібних роботів і для інших компаній.
Нагадаємо, що гуманоїдних роботів уже кілька років також розробляють японські Honda та Boston Dynamics, які належить Hyundai Motor.
Читайте також на нашому сайті про технології майбутнього: китайський робот-гуманоїд вміє нарізати огірки, наливати вино, прасувати сорочки та каліграфічно писати.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!