Якщо припустити, що штучний інтелект стане стандартною частиною інструментарію кіберзлочинців, що можуть зробити організації, щоб захистити себе? Silicon Angle має відповіді на це питання.
У зв’язку з тим, що ChatGPT і подібні інструменти від OpenAI і LLC вже проникають на підприємства через «чорний хід», організації, які займаються інформаційними технологіями, повинні опублікувати інструкції для своїх співробітників щодо їх використання.
Основні рекомендації: співробітники мають перевіряти вихідні дані, використовувати Azure OpenAI Service ChatGPT, Microsoft, а не менш захищену загальнодоступну версію OpenAI і не розкривати конфіденційні корпоративні дані у розмові з чат-ботом.
«Жодна з цих рекомендацій не є новаторською, але ми ще бачимо, що багато організацій не дотримуються простих правил, – говорить Браян Паттон, головний консультант зі стратегічних систем Quest Software. – Якщо ви цього не робите, чи справді вам варто використовувати ШІ?»
Зловмисники зазвичай використовують прості технології, тому такі стандартні заходи, як застосування патчів, очищення каталогів і застосування дозволів є ефективними.
«Проаналізуйте свою інфраструктуру даних, щоб зрозуміти, де ваші найбільші ризики, і «зачиніть» двері та вікна, які є найбільш вразливими, щоб зловмисники не використовували банальні недоліки», – рекомендує Глен Пендлі, головний технічний директор Tenable Network Security Inc.
Ніяких секретів
Єв Контсевой, засновник і генеральний директор компанії з доступу до безпечної інфраструктури Gravitational Inc., яка відома під назвою Teleport, стверджує, що технології, які вже використовуються або знаходяться на стадії запуску, можуть стати у пригоді. Люди залишаються найслабшою ланкою, а при керуванні доступом вони занадто багато покладаються на такі запобіжники, як паролі та контрольні запитання.
«Проста наявність секрету у вашій інфраструктурі – це вже вразливість, – сказав він. – Найбільш захоплива довгострокова перспектива – це використовувати ШІ, щоб усунути людей із циклу доступу».
Поєднання біометричних елементів керування, таких як відбитки пальців і чипи Trusted Platform Module, які використовуються майже в кожному комп’ютерному пристрої, можна використовувати для створення сертифікатів, що зникають після одноразового використання, унеможливлюючи спроби зловмисників вкрасти облікові дані користувача.
«У майбутньому людям не доведеться торкатися інфраструктури, – сказав Єв Контсевой. – ШІ зробить це можливим».
Срідхар Муппіді, головний технічний директор підрозділу безпеки IBM Corp., бачить переваги використання ШІ для оптимізації автентифікації.
«Ми зосереджуємося на тому, щоб не допустити поганих хлопців, але штучний інтелект також може бути корисним, щоб впустити хороших, – сказав він. – Немає необхідності використовувати багатофакторну аутентифікацію щохвилини протягом дня. Ми можемо використовувати ШІ, щоб зробити кібербезпеку більш бездоганною».
Потенційне використання генеративного ШІ для підвищення ефективності фішингових атак також означає, що організаціям потрібно подвоїти свої зусилля, щоб навчити співробітників тому, як не стати їх жертвами, говорить Йотам Сегев, виконавчий директор компанії із захисту даних Cyera Ltd.
Він також рекомендує розробити стандарти для аналізу коду, написаного ШІ, і використовувати один зі значної кількості сканерів, що використовують алгоритми передбачуваного тексту для пошуку шкідливого програмного забезпечення.
«Штучний інтелект може вивчати контекст середовища, його дані та користувачів і встановлювати базову лінію операційної діяльності, аналізу поведінки та виявляти аномалії, щоб передбачати ризики, які перетворюються на загрози у випадках дії людини проти машини та реальної діяльності проти шахрайства», – говорить Йотам Сегев.
Раніше ми повідомляли, як ШІ та великі мовні моделі можуть допомогти компаніям із кібербезпеки покращити свої послуги.