Anthropic обвинил DeepSeek и MiniMax в краже данных Claude
Пока индустрия ИИ переживает бурный рост, в Кремниевой долине разгорается беспрецедентный скандал. Американский стартап Anthropic (создатель модели Claude) официально обвинил крупнейших китайских конкурентов в промышленном шпионаже и «цифровом паразитизме». Вчера, 23 февраля, Anthropic опубликовал отчет, в котором подробно описал масштабную кампанию по несанкционированному извлечению данных. Схема «24 000 аккаунтов» По данным службы безопасности Anthropic, три […]
Пока индустрия ИИ переживает бурный рост, в Кремниевой долине разгорается беспрецедентный скандал. Американский стартап Anthropic (создатель модели Claude) официально обвинил крупнейших китайских конкурентов в промышленном шпионаже и «цифровом паразитизме».
Вчера, 23 февраля, Anthropic опубликовал отчет, в котором подробно описал масштабную кампанию по несанкционированному извлечению данных.
Схема «24 000 аккаунтов»
По данным службы безопасности Anthropic, три китайских ИИ-лаборатории использовали изощренные методы обхода географических и технических ограничений:
-
Инструментарий: Было создано более 24 000 поддельных учетных записей.
-
Трафик: Запросы направлялись через коммерческие прокси-сервисы, чтобы скрыть китайское происхождение IP-адресов.
-
Масштаб: Всего зафиксировано более 16 миллионов запросов к модели Claude.
Дистилляция: Кража «интеллекта» за бесценок
Главная претензия заключается в использовании метода дистилляции (knowledge distillation). Это процесс, при котором ответы мощной модели (в данном случае Claude) используются как эталонные обучающие данные для более простой и дешевой модели.
Кто скачивал данные (по данным Anthropic):
В чем проблема: Такая тактика позволяет китайским фирмам экономить миллиарды долларов на базовых исследованиях (R&D), буквально «копируя» логику американских алгоритмов.
Угроза национальной безопасности
Anthropic подчеркивает, что это не просто коммерческий спор. В компании бьют тревогу по двум причинам:
-
Потеря контроля: Иллицитно (незаконно) обученные модели часто лишены предохранителей (guardrails). Это значит, что они могут помогать в создании биооружия или проведении кибератак.
-
Военное применение: «Дистиллированные» возможности могут быть интегрированы в системы разведки и наблюдения авторитарных режимов.
«Окно для действий сужается. Это не то, с чем может справиться одна компания в одиночку», — говорится в официальном блоге Anthropic.
Контекст: OpenAI и Пентагон
Это заявление стало продолжением «февральского наступления» американских ИИ-гигантов. Напомним:
-
12 февраля: OpenAI направила меморандум в Конгресс США с аналогичными обвинениями в адрес DeepSeek.
-
Вчера, 23 февраля: Стало известно, что министр обороны США Пит Хегсет вызвал гендиректора Anthropic Дарио Амодеи в Пентагон для обсуждения защиты американских технологий.
Похожие публикации
Почему Биткоин — не «тюльпановый пузырь»: аргументы старшего аналитика Bloomberg
Почему Биткоин — не «тюльпановый пузырь»: аргументы старшего аналитика Bloomberg Эрик Балчунас, старший аналитик Bloomberg Intelligence, выступил с заявлением, в котором призвал не сравнивать успехи и падения Биткоина…
Читать далее
Nvidia в 2026 году: удержит ли компания $4 трлн капитализации на фоне Rubin и покупки Groq?
Начало 2026 года стало для Nvidia периодом жесткой проверки на прочность. Самая дорогая компания мира (капитализация на 2 января составляла $4,59 трлн) столкнулась с падением акций на 9,1%…
Читать далее
Уолл-стрит на подъеме: Верховный суд отменил пошлины Трампа
Американские фондовые индексы завершили торговую неделю уверенным ростом. Главным драйвером оптимизма стало сенсационное решение Верховного суда США, который заблокировал глобальные импортные пошлины президента Дональда Трампа, введенные им в…
Читать далее