Anthropic обмежила доступ до Mythos через кіберризики. Це новий етап у розвитку ШІ – Bloomberg

Anthropic обмежила доступ до Mythos через кіберризики. Це новий етап у розвитку ШІ – Bloomberg

Anthropic представила нову модель Mythos, але вирішила не відкривати до неї широкий доступ через ризики, пов'язані з її кібербезпековими можливостями. У публікації Bloomberg ідеться про те, що це може стати ознакою нової ери у розвитку штучного інтелекту, коли ключовим питанням буде не лише потужність моделей, а й межі їхнього публічного використання. Видання звертає увагу, зокрема, на зростання занепокоєння американських компаній тим, що китайські розробники можуть копіювати їхні технології. На цьому тлі дискусія про безпеку, конкуренцію і контроль над найсильнішими ШІ-моделями лише посилюється.
Модель, яка "лякає"

Упродовж останніх трьох років, провідні розробники ШІ змагалися між собою, представляючи дедалі кращі моделі штучного інтелекту, а нові релізи виходили все частіше, пише Bloomberg. Тепер, на думку видання, світ, можливо, входить в еру, коли прогрес у сфері ШІ визначатиметься, зокрема, і тим, що саме розробники вирішують не випускати публічно.

У вівторок Anthropic представила Mythos – потужнішу універсальну модель, яка, за словами компанії, істотно перевершує попередні розробки за низкою показників, зокрема в програмуванні та міркуванні. Проте компанія вирішила обмежити її поширення невеликою групою надійних компаній-партнерів через занепокоєння щодо її розширених можливостей у сфері кібербезпеки.

Під час тестування Anthropic її внутрішня команда безпеки виявила, що Mythos здатна знаходити, а потім використовувати вразливості "в кожній великій операційній системі та в кожному великому веббраузері, якщо їй поставити таке завдання", йдеться в дописі компанії в блозі. Anthropic сподівається, що обмежений випуск дасть компаніям змогу застосовувати Mythos для пошуку власних кібербезпекових вразливостей до того, як  це зроблять хакери.

Тим часом OpenAI також завершує роботу над продуктом із ширшими кібербезпековими можливостями, який планує надати вибраним партнерам, повідомив у четвер Axios. Раніше розробник ChatGPT уже представив пілотну програму, покликану "спершу дати ці інструменти в руки захисникам".

Багато інсайдерів індустрії ШІ схвально оцінили дії Anthropic, яка давно позиціонує себе як організацію, зосереджену на безпеці, і, вочевидь, відповідально підійшла до виведення цієї технології на ринок. Водночас деяких насторожила модель, яка, за словами одного зі співробітників Anthropic, "повинна лякати".

Оскільки Mythos недоступна публічно, зауважує Bloomberg, перші відгуки про її можливості здебільшого надходять від самої компанії та кількох партнерів із раннім доступом. У картці системи для нової моделі Anthropic зазначила, що перші користувачі побачили: Mythos краще самокоригується і загалом "працює більше як старший інженер", помічаючи й усуваючи проблеми, які інші моделі пропускали.

Загалом, однак, Anthropic заявляє, що Mythos "поки не виглядає близькою до того, щоб замінити науковців-дослідників і інженерів-дослідників – особливо досвідчених фахівців".

Окрім безпекових міркувань, у Anthropic можуть бути й інші причини переглянути свій підхід до випуску моделей, зокрема необхідність дозувати використання обчислювальних ресурсів. Mythos – це велика й дорога система, яка з'являється в момент, коли Anthropic вже й так насилу встигає задовольняти стрімко зростаючий попит на свої наявні продукти.

"Ми вже повністю ввійшли в еру, коли найкращі моделі лабораторій цілком можуть не бути публічними в тому вигляді, до якого ми звикли", – написав у X Дін Болл, колишній радник з питань ШІ в адміністрації Трампа. "Це буде наслідком поєднання обмежень обчислювальних ресурсів, економічної реальності, конкурентної переваги та міркувань безпеки", – додав він.

Протидія дистиляції

Рішення утриматися від ширшого випуску Mythos також може допомогти відповісти на інше нагальне занепокоєння Anthropic та її конкурентів: як стримувати китайські компанії у сфері ШІ.

Як Bloomberg вже повідомляв, Anthropic, OpenAI і Google, зазвичай запеклі конкуренти, тепер обмінюються напрацюваннями про те, як не дати китайським розробникам ШІ копіювати їхні моделі за допомогою техніки, відомої як ворожа дистиляція.

Під час дистиляції розробник намагається витягнути результати з однієї "моделі-вчителя", щоб допомогти навчити іншу "модель-учня". Деякі форми дистиляції широко визнані, наприклад, коли ШІ-лабораторії створюють менші, ефективніші версії власних моделей. Але в Кремнієвій долині побоюються, що китайські компанії використовують цю тактику, щоб будувати конкуруючі системи ШІ зі схожими можливостями за значно нижчою ціною.

Для американських технологічних компаній ставки високі. Наразі вважається, що США випереджають Китай у розробці ШІ. Але Китай заполоняє ринок доступними й потужними моделями, які ризикують підірвати здатність таких компаній, як OpenAI та Anthropic, брати вищу плату за свої продукти. За однією з оцінок американських посадовців, несанкціонована дистиляція коштує компаніям США мільярди доларів щорічного прибутку.

Водночас дехто стверджує, зазначає Bloomberg, що ця практика створює ризики для безпеки, оскільки дистильовані моделі часто не мають запобіжників, покликаних не допустити використання інструментів ШІ зловмисниками. Після появи такої просунутої моделі, як Mythos, яка теоретично здатна завдати великої шкоди критично важливому програмному забезпеченню, це питання може звучати ще гостріше.

Дистиляція стає дедалі нагальнішою проблемою для американських компаній, які очікують випуску давно анонсованої нової моделі від DeepSeek. Цей китайський стартап сколихнув ринки на початку минулого року, представивши переконливого конкурента моделям OpenAI, створення якого, як стверджувалося, коштувало значно менше.

OpenAI звинуватила DeepSeek у витягуванні великих масивів даних через систематичне надсилання запитів до її інтерфейсу програмування застосунків і приховування джерела цих запитів. Якби таке зробила компанія, розташована у США, OpenAI могла б спробувати заблокувати їй доступ до сервісу та подати до суду. Коли ж користувачі перебувають у Китаї й діють через приховані канали, зробити це складніше.

Microsoft і OpenAI раніше вже розпочали розслідування ймовірних практик DeepSeek. У лютому цього року OpenAI також надіслала до Конгресу меморандум, у якому зазначила, що виявила тривалі й витончені спроби дистиляції з боку акторів із Китаю та росії.

"Наступну модель DeepSeek, в якій би формі вона не вийшла, слід розглядати в контексті її постійних зусиль паразитувати на можливостях, розроблених OpenAI та іншими американськими передовими лабораторіями", – написала OpenAI в меморандумі.

Деякі коментатори швидко вказали на очевидне лицемірство такої риторики. Ті самі ШІ-лабораторії, які звинувачують китайських розробників у фактичному копіюванні їхньої технології без дозволу, раніше самі були відповідачами у справах про використання без дозволу творів художників і письменників для навчання власних моделей.

Незалежно від того, чи мають американські компанії моральну перевагу, вони точно мають увагу адміністрації Трампа, яка зосереджена на технологічній гонці озброєнь із Китаєм. У міру того як такі компанії, як Anthropic і OpenAI, випускатимуть дедалі потужніші моделі з новими наслідками для національної безпеки, дискусія навколо дистиляції, ймовірно, лише посилюватиметься у Вашингтоні й поза ним.

Рей Курцвейл, футуролог і автор книги "Сингулярність близько", заявив:

Коли я в 1999 році передбачив, що AGI (штучний загальний інтелект, здатний виконувати будь-яке інтелектуальне завдання, яке може виконати людина, і навіть перевершити її) з'явиться у 2029-му, головна суперечка полягала в тому: "Чи станеться це взагалі?" Тепер суперечка точиться довкола того, чи добре це для людей.

В інтерв'ю на конференції HumanX у вівторок Курцвейл певною мірою відзначив справдження своїх ранніх прогнозів про те, що потужніша форма ШІ, відома як загальний штучний інтелект, буде досягнута вже цього десятиліття. Інші технологічні лідери тепер також бачать подібні часові рамки завдяки недавнім проривам у сфері ШІ. "Саме конкуренція стимулює експоненційне зростання", – зазначив він у розмові з Bloomberg.