Наглядова рада Meta знову змушена вирішувати питання з контентом, створеним штучним інтелектом. Вона розглядає дві справи, які стосуються створених ШІ відвертих зображень публічних осіб, повідомляє Engadget.
Незважаючи на те, що правила Meta вже забороняють оголеність у Facebook та Instagram, у заяві правління зазначено, що воно хоче розглянути питання про те, чи політика Meta та її методи застосування є ефективними для боротьби з відвертими зображеннями, створеними штучним інтелектом.
Зображення жінок-знаменитостей, політиків та інших громадських діячів, які іноді називають deepfake porn, створені ШІ, стають все більш поширеною формою онлайн-домагань і вже спричинили хвилю пропозицій щодо регулювання.
З огляду на ці два випадки Наглядова рада може підштовхнути Meta до ухвалення нових правил для боротьби з такими віртуальними секс-переслідуваннями на своїй платформі.
Наглядова рада заявила, що не називає двох публічних діячів у центрі кожної справи, намагаючись уникнути подальших переслідувань, хоча описала обставини кожної публікації.
Один випадок стосується допису в Instagram, який показує створене ШІ зображення оголеної індійської жінки, яке було опубліковано обліковим записом, що ділиться лише зображеннями індійських жінок, створеними ШІ.
Про допис було повідомлено в Meta, але звіт було закрито через 48 годин, оскільки його не розглянули. Той самий користувач подав апеляцію на це рішення, але апеляція також була закрита і не розглядалася. Meta зрештою видалила публікацію після того, як користувач звернувся до Наглядової ради, яка погодилася взяти справу.
Другий випадок стосувався допису у Facebook у групі, присвяченій штучному інтелекту. Допис, про який йдеться, показував згенероване штучним інтелектом зображення оголеної жінки з чоловіком, який торкається її грудей. Жінка мала бути схожа на американську громадську фігуру, ім’я якої також було в підписі до публікації.
Публікацію було видалено автоматично, оскільки про неї повідомляли раніше, і внутрішні системи Meta змогли зіставити її з попередньою публікацією. Користувач подав апеляцію на рішення про її видалення, але апеляція була автоматично закрита. Потім користувач звернувся до Наглядової ради, яка погодилася розглянути справу.
У своїй заяві співголова Наглядової ради Хелле Торнінг-Шмідт сказала, що Рада розглянула два випадки з різних країн, щоб оцінити потенційні розбіжності в застосуванні політики Meta.
«Ми знаємо, що Meta швидше й ефективніше модерує контент на деяких ринках і мовах, аніж на інших. Взявши один випадок із США та один з Індії, ми хочемо перевірити, чи Meta захищає всіх жінок у всьому світі справедливим способом», – сказав у коментарі Торнінг-Шмідт.
Наглядова рада опублікує своє рішення десь протягом наступних кількох тижнів разом із рекомендаціями щодо політики для Meta.
Подібний процес, пов’язаний з оманливо відредагованим відео Джо Байдена, нещодавно призвів до того, що компанія погодилася позначати більше контенту, створеного ШІ, на своїй платформі.
Раніше ProIT повідомляв, що Meta випустить Llama 3 LLM, щоб конкурувати з GPT-4.
Чи можна бути впевненими, що ШІ справді діє неупереджено та не порушує права людини? Читайте на ProIT матеріал на цю тему під назвою: Упереджений ШІ, або Як технології призводять до зростання випадків дискримінації.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!