В начале 2025–2026 годов вокруг китайской AI-компании DeepSeek разгорелся один из самых обсуждаемых конфликтов в индустрии искусственного интеллекта. Крупнейшие американские разработчики — OpenAI и Anthropic — публично заявили о возможном неправомерном использовании их технологий. Эти обвинения касаются интеллектуальной собственности, методов обучения моделей и глобальной конкуренции между США и Китаем в сфере ИИ.
Ситуация быстро вышла за рамки обычного корпоративного спора. В обсуждение включились политики, исследователи и регуляторы. При этом важно подчеркнуть: на данный момент речь идёт именно об обвинениях и расследованиях, а не о доказанном факте нарушения закона. Ниже — разбор того, что известно на основе открытых источников.
Что произошло: суть конфликта DeepSeek и западных AI-компаний
Главный повод для конфликта — подозрения в том, что DeepSeek могла использовать результаты работы моделей OpenAI и Anthropic для обучения собственных систем. Речь идёт о практике, известной как «дистилляция моделей».
OpenAI заявила, что обнаружила признаки использования своих моделей без разрешения. Компания сообщила американским законодателям, что DeepSeek могла «использовать методы дистилляции» как часть попытки получить выгоду от технологий, разработанных другими лабораториями . Аналогичные заявления были сделаны в официальных документах, направленных в Конгресс США .
Суть претензий заключается в следующем: DeepSeek якобы обучала свою модель, задавая вопросы ChatGPT и используя полученные ответы как обучающие данные. Такой подход может нарушать условия использования и права на интеллектуальную собственность, если он применяется без разрешения владельца модели .
Anthropic выступила с похожими обвинениями, но уже в 2026 году и с более конкретными цифрами. Компания утверждает, что DeepSeek участвовала в масштабной кампании по извлечению данных из модели Claude. По данным Anthropic, такие действия могли включать миллионы запросов к системе через подставные аккаунты .
DeepSeek при этом публично отрицала неправомерные действия и заявляла, что её модели разработаны самостоятельно. На момент публикации открытых доказательств, подтверждающих нарушения, представлено не было, а расследования продолжаются.
Как работают обвинения: дистилляция и доступ к данным
Чтобы понять суть конфликта, необходимо разобраться, что именно подразумевается под «дистилляцией моделей» и почему вокруг неё возникли споры.
Дистилляция — это распространённый метод в машинном обучении. Он позволяет обучить более компактную модель на основе ответов более мощной системы. Такой подход помогает снизить стоимость разработки и ускорить создание новых продуктов.
Ниже представлено сравнение ключевых аспектов дистилляции и претензий к DeepSeek.
| Параметр | Описание |
|---|---|
| Дистилляция моделей | Обучение новой модели на ответах другой, более мощной системы. |
| Законность метода | Сам по себе метод считается допустимым в индустрии. |
| Претензии OpenAI | Возможное использование ответов ChatGPT без разрешения. |
| Претензии Anthropic | Массовое извлечение данных из Claude через фейковые аккаунты. |
| Основной риск | Нарушение условий использования и прав на интеллектуальную собственность. |
После изучения этого механизма становится понятно, почему компании воспринимают такие действия как угрозу. Если одна компания может быстро воспроизвести возможности другой, используя её же результаты, это снижает конкурентные преимущества и может нарушать правила использования сервисов.
Anthropic заявила, что в предполагаемой схеме использовались около 24 000 аккаунтов и более 16 миллионов запросов к модели Claude . Эти данные стали одним из самых обсуждаемых элементов скандала, так как указывают на возможный масштаб операций.
При этом важно отметить: сама дистилляция не запрещена. Споры возникают именно из-за источника данных и условий их получения.
Основные обвинения против DeepSeek
В публичном поле сформировался набор ключевых претензий, которые повторяются в заявлениях OpenAI и Anthropic. Они не подтверждены судом, но активно обсуждаются в индустрии.
В рамках этих обвинений выделяются следующие пункты:
- Использование ответов ChatGPT для обучения собственной модели без разрешения.
- Применение дистилляции для копирования возможностей более мощных систем.
- Массовое обращение к API через автоматизированные или подставные аккаунты.
- Потенциальное нарушение условий использования сервисов OpenAI и Anthropic.
- Получение конкурентного преимущества за счёт чужих технологий.
Эти утверждения формируют основу конфликта, но каждая из сторон интерпретирует ситуацию по-своему. После публикации подобных заявлений начались обсуждения того, где проходит граница между допустимым использованием данных и нарушением прав.
Важно учитывать, что часть экспертов указывает на сложность доказательства подобных нарушений. В индустрии пока нет универсальных механизмов, позволяющих точно установить, использовались ли ответы конкретной модели в обучении другой системы .
Позиция OpenAI и реакция индустрии
OpenAI заняла достаточно жёсткую позицию в отношении DeepSeek. Компания заявила о наличии «существенных доказательств» того, что её модели могли использоваться без разрешения .
Кроме того, Microsoft — ключевой партнёр OpenAI — также участвовала в расследовании. По данным СМИ, специалисты компании зафиксировали подозрительную активность, связанную с массовым извлечением данных через API .
В своих заявлениях OpenAI подчёркивает, что её условия использования прямо запрещают создание конкурирующих продуктов на основе полученных ответов. Нарушение этих правил рассматривается как серьёзное правовое и этическое нарушение.
Реакция индустрии оказалась неоднозначной. С одной стороны, многие компании поддержали идею защиты интеллектуальной собственности. С другой — появились критические замечания в адрес самой OpenAI.
Некоторые эксперты напомнили, что модели OpenAI обучались на больших объёмах данных из интернета, включая материалы, защищённые авторским правом. Это вызвало дискуссию о двойных стандартах и о том, где проходит граница допустимого использования данных .
Таким образом, конфликт стал не только спором между компаниями, но и частью более широкой дискуссии о правилах в индустрии ИИ.
Обвинения Anthropic и масштаб возможных нарушений
Anthropic представила, пожалуй, наиболее детализированные обвинения. Компания заявила, что действия DeepSeek и других китайских разработчиков носили «промышленный масштаб».
Согласно опубликованным данным:
- было создано около 24 000 поддельных аккаунтов;
- зафиксировано более 16 миллионов взаимодействий с моделью Claude;
- DeepSeek могла совершить более 150 000 таких запросов;
- целью было извлечение сложных возможностей, включая логическое мышление и программирование .
Anthropic утверждает, что такие действия нарушают условия использования и обходят ограничения доступа. Также компания выразила опасения по поводу возможных последствий, включая использование технологий в военных или разведывательных целях .
Эти заявления усилили политический контекст конфликта. В обсуждении начали фигурировать вопросы национальной безопасности, экспортных ограничений и технологического соперничества между странами.
При этом, как и в случае с OpenAI, окончательных юридических решений на момент публикации нет. Обвинения остаются предметом расследования и анализа.
Последствия скандала для рынка искусственного интеллекта
История с DeepSeek стала одним из самых заметных кейсов, связанных с интеллектуальной собственностью в сфере ИИ. Она показала, насколько сложными становятся вопросы авторства и использования данных.
Одним из ключевых последствий стало усиление контроля за доступом к моделям. Компании начали внедрять дополнительные механизмы защиты, включая отслеживание подозрительной активности и ограничение API.
Также усилилось внимание со стороны государств. OpenAI призвала к более тесному сотрудничеству с правительствами для защиты технологий и предотвращения их неправомерного использования .
Скандал также повлиял на восприятие рынка. Он показал, что:
- конкуренция в сфере ИИ выходит на глобальный уровень;
- границы между открытыми и закрытыми технологиями остаются размытыми;
- правовая база не успевает за развитием технологий.
В результате обсуждение вышло далеко за рамки одного кейса и стало частью более широкой дискуссии о будущем индустрии.
Заключение
Ситуация вокруг DeepSeek остаётся открытой. Обвинения со стороны OpenAI и Anthropic основаны на анализе поведения и технических данных, но окончательных юридических выводов пока нет.
Этот конфликт стал показателем того, как быстро развивается индустрия искусственного интеллекта и какие новые вызовы она создаёт. Вопросы авторских прав, доступа к данным и честной конкуренции становятся ключевыми для всех участников рынка.
Главный вывод на данный момент — правила игры в сфере ИИ только формируются. И подобные конфликты, скорее всего, будут повторяться, пока не появятся чёткие международные нормы и стандарты.
