Meta готується масштабно замінити перевірки людьми своїх продуктів системами штучного інтелекту.
Як повідомляє NPR із посиланням на внутрішні документи компанії, Meta планує покласти до 90% оцінок потенційних ризиків своїх продуктів на ШІ, щоб пришвидшити процес. Йдеться, зокрема, про такі сфери, як ризики для підлітків і так звану інтегриті (integrity), яка охоплює насильницький контент, дезінформацію тощо.
Анонімні джерела — нинішні та колишні співробітники Meta — висловили занепокоєння, що ШІ може не виявити серйозні ризики, які здатна розпізнати команда експертів-людей.
Раніше всі оновлення й нові функції в продуктах Meta, включно з Instagram та WhatsApp, проходили перевірку людьми. Проте, за даними NPR, за останні 2 місяці компанія значно активізувала використання ШІ. Тепер продуктові команди мають заповнювати анкету щодо свого продукту й подавати її на розгляд системи ШІ. Вона зазвичай одразу формує рішення з переліком виявлених ризиків. Лише після виконання рекомендацій, сформульованих системою, продукт може бути випущений.
Колишній керівник Meta заявив NPR, що зменшення людського контролю означає зростання ризиків, адже негативні наслідки змін у продуктах стають менш передбачуваними й можуть виникнути вже після запуску.
У коментарі NPR компанія Meta зазначила, що досі залучатиме експертів-людей для оцінювання нових або складних питань, а рішення з низьким ризиком залишить на розсуд ШІ.
Ця інформація з’явилася через кілька днів після публікації чергового звіту Meta про дотримання стандартів, першого з моменту зміни політик щодо модерації контенту та фактчекінгу. Згідно зі звітом, обсяг видаленого контенту зменшився, але кількість випадків цькування, насильства й графічного контенту дещо зросла.
Раніше ми повідомляли, що Meta запустила окремий застосунок Meta AI із голосовим асистентом на базі Llama 4.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!