Федеральна комісія зі зв’язку (FCC) запропонувала оштрафувати політичного консультанта на суму $6 мільйонів за нібито використання клонованого голосу президента США Джо Байдена, згенерованого штучним інтелектом, для поширення дезінформації, пов’язаної з виборами. Про це повідомляє NetworkWorld.
«Політичний консультант Стів Крамер ніс відповідальність за дзвінки з використанням згенерованого ШІ голосу Джо Байдена. Тепер йому загрожує штраф у розмірі $6 мільйонів за здійснення цієї незаконної кампанії автоматичних дзвінків 21 січня 2024 року», – йдеться в заяві FCC.
Федеральна комісія зі зв’язку стверджує, що Крамер організував кампанію автоматичних телефонних дзвінків, яка містила deepfake (глибоку підробку) голосу Байдена. Цей ШІ-голос закликав виборців Нью-Гемпшира не брати участі в січневих праймеріз, просячи їх зберегти свій голос для виборів у листопаді. Це сталося всього за 2 дні до президентських праймеріз.
«Ми діятимемо швидко та рішуче, щоб зловмисники не могли використовувати телекомунікаційні мережі США для сприяння зловживанню генеративною технологією ШІ для втручання у вибори, обмани споживачів або компрометації конфіденційних даних», – заявила Лояан Егал, голова Бюро з контролю за дотриманням законодавства, йдеться в заяві члена спеціальної групи з конфіденційності та захисту даних FCC.
Також Комісія вживає заходів проти провайдера Lingo Telecom за його роль у сприянні незаконним автоматичним викликам, додається в заяві.
Комісія чітко дала зрозуміти, що дзвінки, здійснені за допомогою голосу, створеного ШІ, є «штучними» відповідно до Закону про захист прав споживачів телефонної мережі (TCPA).
Це підтверджує той факт, що FCC і генеральні прокурори штату мають необхідні інструменти для переслідування зловмисників, які стоять за цими автоматичними дзвінками.
Крім того, FCC розпочала офіційну процедуру збору інформації про поточний стан використання штучного інтелекту під час дзвінків і текстових повідомлень, а також запитань про нові загрози, такі як автоматичні виклики.
Цей інцидент викликає занепокоєння щодо можливого зловживання технологією deepfake, яка може створювати реалістичні й часто нерозпізнані аудіо- та відеопідробки.
Нещодавно актриса Скарлетт Йоханссон висловила подібне занепокоєння, стверджуючи, що OpenAI використовує її голос без згоди на те у своїй програмі ШI. Вона стверджувала, що голос голосового чату Sky звучав «страшно схоже» на неї. Однак в OpenAI швидко спростували це твердження.
Читайте також на ProIT: Meta розробляє нову мультимодальну модель ШІ Chameleon, щоб конкурувати з GPT-4o OpenAI.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!