Кілька років тому deepfake-технології здавалися новаторськими й використовували серйозні обчислювальні потужності. Сьогодні вони поширені в усьому світі та використовуються для поширення дезінформації, хакінгу й інших зловживань.
Лабораторія Intel розробила технологію виявлення deepfake в реальному часі, щоб протидіяти цій проблемі, повідомляє ZDNET.
Deepfake використовує складні глибокі нейромережі для створення високореалістичного і правдоподібного контенту. Ці моделі можуть генерувати синтетичних персонажів і навіть перетворювати текст у зображення, що ускладнює процес розпізнавання справжнього контенту.
Термін deepfake іноді застосовується й до автентичного контенту, який був змінений. Наприклад, відео колишнього спікера Палати представників США Ненсі Пелосі у 2019 році, яке було перетворене, щоб скласти враження, що політик перебуває у стані алкогольного сп’яніння.
Команда Intel досліджує обчислювальні deepfake, які є синтетичними формами контенту, створеними машинами.
«Причина, чому це називається deepfake, полягає у тому, що тут є складна глибока нейромережа в генеративному ШІ, що створює весь цей контент», – говорить Ілке Демір, головна наукова дослідниця лабораторії Intel.
Кіберзлочинці часто зловживають deepfake-технологією для створення, наприклад, політичної дезінформації або відео з еротичним контентом, в якому зображені знаменитості чи інші особи без їхньої на те згоди. Інколи кіберзлочинці видають себе за інших осіб з метою отримання фінансової вигоди.
Лабораторія Intel розробила одну з перших у світі платформ виявлення deepfake в реальному часі, яка фокусується на виявленні того, що є не фейком, а реальним і справжнім, наприклад, пульсом. При цьому використовується техніка фотоплетизмографії – системи, яка виявляє й аналізує зміни кольору крові у венах. Технологія може виявляти, чи є особистість реальною людиною, чи синтезованою.
«Ми намагаємося подивитися на те, що є справжнім та автентичним. Частота серцевих скорочень, пульс є одним із сигналів, – розповідає Ілке Демір. – Коли ваше серце качає кров, вона надходить у ваші вени, і вени змінюють колір через вміст кисню. Цей колір змінюється. Це не видно просто оком, я не можу просто подивитися на це відео та побачити ваш пульс. Але комп’ютер може це зробити».
Технологію виявлення глибоких фейків від Intel можуть використовувати різні організації й платформи: соціальні мережі, інформаційні агентства, ЗМІ, стартапи та некомерційні організації. Інтегрувавши цю технологію у свої робочі процеси, компанії можуть краще виявляти та запобігати поширенню deepfake та дезінформації.
Попри потенціал для зловживання, вона має і цілком законне застосування. Одним із перших застосувань було створення аватарів для кращого представлення людей у цифровому середовищі. Наприклад, анонімізатор для соціальних мереж My Face My Choice, який використовує глибокі фейки для підвищення конфіденційності на онлайн-платформах і дає змогу людям змінювати своє обличчя, якщо вони хочуть уникнути впізнання.
Забезпечення етичної розробки та впровадження технологій ШІ має вирішальне значення. Команда Intel Trusted Media співпрацює з антропологами, соціологами та маркетологами, щоб оцінити й удосконалити свою технологію. У компанії також існує Рада відповідального ШІ, яка перевіряє системи штучного інтелекту на відповідність та етичні принципи, включаючи потенційні упередження, обмеження та можливі випадки шкідливого використання. Цей мультидисциплінарний підхід допомагає гарантувати, що технології ШІ, такі як виявлення глибоких фейків, приносять людям користь, а не завдають шкоди.
«У нас є юристи, у нас є соціологи, у нас є психологи, і всі вони збираються разом, щоб точно визначити обмеження, щоб визначити, чи є упередженість – алгоритмічна упередженість, систематична упередженість, упередженість даних, будь-який тип упередженості, – говорить Ілке Демір. – Команда сканує код, щоб знайти будь-які можливі випадки використання технології, яка може завдати шкоди людям».
Оскільки технології deepfake стають все більш поширеними та складними, розробка і впровадження технологій виявлення та боротьби з дезінформацією й іншими шкідливими наслідками стають все більш важливими. Технологія виявлення глибоких фейків у реальному часі від Intel Labs пропонує масштабоване й ефективне рішення для цієї все більш актуальної проблеми.
Інтерв’ю з Ілке Демір можна подивитися тут:
Раніше ProIT повідомляв, що Intel і HPE завершили збірку суперкомп’ютера Aurora.