Відтоді, як ChatGPT вийшов на сцену наприкінці минулого року, у Кремнієвій долині зростає тривога щодо екзистенційних ризиків розвитку ШІ. Про це повідомляє The Economist.
ChatGPT є прикладом «генеративного» штучного інтелекту, який створює контент на основі аналізу текстів, зображень і звуків в Інтернеті. Сем Альтман, генеральний директор OpenAI, сказав на слуханнях у Конгресі цього місяця, що регулятивне втручання має вирішальне значення для управління ризиками дедалі потужніших «великих мовних моделей» (LLMS), які стоять за ботами.
Через відсутність правил деякі з його колег у Сан-Франциско вже мають намір обговорити з урядовцями у Вашингтоні потенційну шкоду, виявлену під час перевірки їхніх чат-ботів.
Багато презентацій стартапів зараз стосуються насамперед безпеки, а вже потім заробітку.
«Старе прислів’я Кремнієвої долини про регулювання — мовляв, краще просити вибачення, ніж дозволу, — було відкинуто. Такі стартапи, як OpenAI, Anthropic і Inflection, настільки прагнуть донести ідею, що вони не жертвуватимуть безпекою лише заради заробітку, що створили корпоративні структури, які обмежують максимізацію прибутку», — стверджує колумніст The Economist Шумпетер.
Так само як і стартапи, ІТ-гіганти Microsoft і Google прагнуть показати, що серйозно ставляться до безпеки, навіть коли запекло борються один з одним у перегонах чат-ботів. Вони також стверджують, що потрібні нові правила і міжнародне співробітництво в нагляді за ШІ. Як зазначив генеральний директор Alphabet Сундар Пічаї, «штучний інтелект надто важливий, щоб не регулювати його, і надто важливий, щоб не регулювати його належним чином».
«Проте варто пам’ятати, що регулювання також принесе користь технологічним гігантам. Це пов’язано з тим, що регулювання має тенденцію зміцнювати існуючі ринкові структури, створюючи витрати, які провідним компаніям легше понести», — акцентує Шумпетер. На його думку, це створить бар'єри для входу в індустрію новим гравцям.
ШІ з відкритим кодом викликає ще більше побоювань з моменту, коли Meta випустила велику мовну модель під назвою LLaMA. У Кремнієвій долині вже почалися розмови про те, що розробники можуть створювати генеративні моделі ШІ, не гірші за пропрієтарні моделі, що існують.
Пан Кларк з Anthropic описує штучний інтелект із відкритим кодом як «дуже тривожну концепцію». Але ці занепокоєння будуть розвіяні, оскільки регулювальні органи світу боротимуться з генеративним штучним інтелектом.
«Microsoft і Google — і, відповідно, їхні стартові збори, — мають набагато глибші кишені, ніж розробники з їхнім відкритим кодом, і здатні впоратися з будь-чим, що придумають регулятори. Вони також мають більшу ставку на збереження стабільності інформаційно-технологічної системи, яка перетворила їх на титанів. Цього разу прагнення до безпеки та прибутку можуть поєднатися», — робить висновок Шумпетер.