Anthropic готовит самый мощный ИИ в своей истории
Компания Anthropic подтвердила существование новой модели искусственного интеллекта после того, как Fortune провел собственное расследование и получил комментарии представителей компании.
Представитель Anthropic отметил, что новая система представляет «качественный скачок» и является «самой мощной из всех, что мы когда-либо создавали». Сейчас она доступна только клиентам раннего доступа.
Утечка данных и раскрытие проекта
Описание модели случайно оказалось в публичном кэше данных и было изучено Fortune. Черновик публикации, находившийся в незащищенном хранилище, указывал, что новая модель называется Claude Mythos и рассматривается как беспрецедентная с точки зрения киберугроз.
Тот же кэш также раскрыл дополнительные детали — информацию о закрытом саммите для CEO в Европе и материалы, связанные с продвижением ИИ среди корпоративных клиентов.
По данным исследователей безопасности, в открытом доступе оказалось около 3000 ресурсов, связанных с блогом компании, которые ранее не публиковались. После уведомления от Fortune компания закрыла доступ к хранилищу и признала, что причиной стала «ошибка человека» в системе управления контентом.
Mythos и новый уровень моделей — Capybara
В документах также упоминается новый уровень моделей — Capybara, который описывается как более мощный, чем текущие решения компании. По всей видимости, Capybara и Mythos относятся к одной и той же базовой системе.
На данный момент линейка моделей Anthropic устроена следующим образом — Opus как самые мощные модели, Sonnet как баланс скорости и стоимости, и Haiku как наиболее быстрые и доступные. Новый уровень Capybara, согласно утечке, будет выше Opus — более производительным, но и значительно более дорогим.
В документах также утверждается, что новая модель превосходит Claude Opus 4.6 в ряде задач — включая программирование, академическое рассуждение и кибербезопасность. Обучение Claude Mythos, как сообщается, уже завершено.
Осторожный запуск
Разрабатывается модель общего назначения с серьезными улучшениями в области рассуждения, написания кода и кибербезопасности. При этом компания подчеркивает, что подходит к выпуску максимально осторожно.
Стратегия включает постепенный запуск — сначала ограниченный доступ для небольшой группы клиентов, затем возможное расширение. Такой подход объясняется высокой стоимостью эксплуатации модели и ее неготовностью к массовому использованию.
Значительные риски кибербезопасности
Новая модель несет существенные риски. В Anthropic отмечают, что система уже значительно опережает другие ИИ-решения в области киберзащиты и может предвещать волну технологий, способных находить и использовать уязвимости быстрее, чем защитные системы.
Фактически речь идет о сценарии, при котором злоумышленники смогут применять такие модели для проведения масштабных атак. Именно поэтому компания планирует запуск с акцентом на защиту — предоставляя ранний доступ организациям, чтобы они могли подготовиться к возможной «волне ИИ-атак».
Рост рисков в индустрии
Подобные опасения наблюдаются и у других игроков рынка, включая OpenAI. С развитием моделей усиливается их способность находить уязвимости в программном обеспечении, что создает двойной эффект — технологии могут использоваться как для защиты, так и для атак.
Anthropic уже сталкивалась с этим — ее модели выявляли ранее неизвестные уязвимости в реальных системах. Компания также сообщала о попытках использования Claude хакерскими группами, включая связанные с государственными структурами. В одном из случаев атака затронула около 30 организаций — среди них технологические компании, финансовые учреждения и госорганы. Позже Anthropic заблокировала аккаунты, провела расследование и уведомила пострадавших.
Причина утечки
Эксперты связывают инцидент с особенностями CMS — загружаемые файлы по умолчанию могли становиться публичными, если пользователь не изменял настройки доступа. В результате изображения, PDF-файлы и другие материалы оказались в открытом доступе.
Anthropic подтвердила, что проблема связана с внешним инструментом управления контентом и была вызвана человеческой ошибкой.
