DeepSeek-V3.2: китайская модель, которая хочет конкурировать с GPT-5 и Gemini-3 Pro

  • DeepSeek выпускает DeepSeek-V3.2 и V3.2-Speciale с целью составить конкуренцию GPT-5 и Gemini-3 Pro в области сложных логических вычислений.
  • Модель интегрирует режим «мышления» непосредственно в использование внешних инструментов и поддерживает контексты до 128 000 токенов.
  • V3.2-Speciale преуспевает в математике и информатике, демонстрируя результаты на уровне золотых медалей на международных олимпиадах.
  • Компания публикует весовые коэффициенты и технический отчет, усиливая борьбу между Китаем, Европой и США за лидерство в области открытого ИИ.

DeepSeek-V3.2

Китайская компания DeepSeek сделала очередной шаг в глобальной гонке за искусственный интеллект при объявлении DeepSeek-V3.2 и его вариант V3.2-SpecialeЭти две модели с открытым исходным кодом ориентированы исключительно на верхний сегмент рынка. Компания утверждает, что её система логического вывода сопоставима с ведущими бенчмарками, такими как GPT-5 и Gemini-3 Pro, что оказывает давление на американских гигантов в условиях жёсткой технологической конкуренции.

В Европе, где ведутся дебаты по Ответственный ИИ, регулирование и технологический суверенитет Эти тенденции широко распространены, и действия DeepSeek не остались незамеченными. Тот факт, что китайская лаборатория опубликовала весовые коэффициенты, подробную техническую документацию и продвинутую модель рассуждений в открытом исходном коде, усиливает ощущение того, что экосистема открытого исходного кода набирает силу, способствуя развитию полностью проприетарных решений, что может быть особенно интересно для европейских университетов, исследовательских центров и технологических малых и средних предприятий.

DeepSeek-V3.2: рассуждения на уровне ведущих моделей

Стартап из Ханчжоу представил DeepSeek-V3.2 в качестве окончательной и стабильной версии своих моделей цепочки рассуждений, заменяющей экспериментальную версию, выпущенную несколькими неделями ранее. По заявлению самой компании, V3.2 достигает производительности, аналогичной GPT-5 в различных тесты аудитории многоэтапного рассуждения и мышления, и располагается немного ниже Близнецы-3.0 Про в некоторых тестах производительности.

Эта модель сочетает в себе Человеческое мышление с возможностью использования внешних инструментовТакие как поисковые системы, калькуляторы, среды выполнения кода или сторонние системы, такие как Claude Code. Идея заключается в том, что система не только генерирует текст, но и может планировать, запрашивать ресурсы, выполнять функции, а затем интегрировать эти результаты в более полный ответ, не требуя постоянного контроля.

DeepSeek подчеркнул, что модель предлагает два режима взаимодействия с инструментамиОдин с видимыми рассуждениями, где пользователь может отслеживать промежуточные шаги, а другой без демонстрации мыслительного процесса. В обоих случаях «Память рассуждений» сохраняется на фоне призывов к инструментам в рамках одного и того же разговора и перезапускается только при поступлении нового сообщения от пользователя, что особенно полезно для длительных задач или потоков агентского типа.

Режим «мышления», интегрированный в использование инструментов

Одной из самых ярких новых функций DeepSeek-V3.2 является Прямая интеграция режима мышления в использование инструментовВо время рассуждений модель может отправлять запросы в поисковую систему, вызывать калькулятор, выполнять код или взаимодействовать с другими службами, объединяя циклы внутреннего анализа и внешние вызовы, чтобы попытаться предоставить ответы. более подробный и точный когда этого требует задача.

По данным компании, такой подход делает V3.2 ее первая модель, способная рассуждать и использовать инструменты изначальнокак в стандартном режиме, так и в режиме интенсивного мышления. Это чёткая приверженность тому, что называется рабочие процессы на основе агентовВ этих случаях ИИ не просто отвечает на отдельный вопрос, а действует как автономный агент, который разбирает проблему, ищет информацию, производит вычисления, а затем объединяет все в единое решение.

DeepSeek также подчеркивает, что модель широко доступна: DeepSeek-V3.2 можно использовать через веб, приложение и API.Это облегчает её интеграцию в продукты, виртуальных помощников и бизнес-инструменты, включая проекты, разрабатываемые в Европе. Для европейских сообществ разработчиков и компаний, ищущих открытые альтернативы, возможность исследовать и адаптировать модель без привязки к одной крупной платформе является значительным преимуществом.

Архитектура DeepSeek Sparse Attention (DSA) и вычислительная эффективность

На техническом уровне ядро ​​DeepSeek-V3.2 – это DeepSeek Sparse Attention (DSA), механизм внимания, предназначенный для обработки очень длинных последовательностей с одновременным снижением вычислительных затрат. DeepSeek представила параллельную файловую систему, оптимизированную для ИИ что дополняет его усилия по повышению эффективности и развертыванию. Модель имеет около 671.000 миллиардов параметров всегоно на каждом шаге вывода они активируются только вокруг 37.000 миллиардов параметров на токенЭто позволяет поддерживать производительность без увеличения потребления ресурсов.

Эта распределенная архитектура позволяет работать с контекстные окна до 128 000 токенов В производственной среде этот размер особенно полезен для анализа объёмных документов, академических исследований или просмотра больших объёмов юридической и технической информации — областей, представляющих большой интерес для европейских институтов. Согласно данным, предоставленным компанией, DSA снижает стоимость вывода примерно вдвое по сравнению с предыдущей плотной архитектурой в длинных контекстах.

Для организаций в Испании и других странах ЕС, сталкивающихся с ограничениями бюджета на вычислительные ресурсы, это повышение эффективности Это открывает возможности для экспериментов с передовыми моделями без необходимости использования дорогостоящей инфраструктуры, используемой крупными американскими технологическими компаниями. Тем не менее, DeepSeek признаёт, что ему ещё есть куда совершенствоваться по сравнению с конкурентами. символическая эффективность и широта мировых знаний, две ключевые области для крупномасштабных развертываний.

DeepSeek-V3.2 с интенсивным подкреплением с использованием RL и синтетических данных для агентов

Помимо архитектуры, DeepSeek настаивает, что большая часть скачка в рассуждениях происходит из-за Массовое пост-обучение с помощью обучения с подкреплением (RL)Компания выделила более 10% от общего предтренировочного расчета только на этом этапе, необычный процент в секторе, с целью усиления возможностей модели исправлять ошибки, глубоко рассуждать, использовать инструменты и действовать в интерактивной среде.

Команда построила сложная экосистема синтетических данных который включает в себя более 1.800 учебных сред и вокруг 85 000 расширенных инструкций Специфические для агентов задачи. Эти задачи включают в себя поиск в реальном мире, динамическое моделирование, выполнение кода, решение цепочек задач и автоматическую генерацию и проверку сценариев для минимизации ошибок в наборе данных.

Этот подход направлен на создание Агенты ИИ, способные действовать с определенной степенью автономностиАнализ информации, принятие решений и работа в многоэтапных рабочих процессах. Для европейских компаний, изучающих автоматизацию сложных процессов — от финансового анализа до расширенной технической поддержки — эти достижения могут быть особенно привлекательны, хотя пока неясно, как модели будут работать вне контролируемых условий тестирования.

DeepSeek-V3.2-Speciale: математика, информатика и расширенное мышление

Наряду с универсальной моделью DeepSeek запустил DeepSeek-V3.2-Speciale, вариант, ориентированный на продвинутые вычисления, математические доказательства и расширенные мыслительные процессыКомпания утверждает, что эта версия соответствует Близнецы-3 Про Результаты Google в решении сложных задач на рассуждение приближаются к золотым медалям на международных соревнованиях.

В частности, Speciale достиг бы уровня, сопоставимого с золотыми медалями Международной математической олимпиады (ММО), Международная олимпиада по информатике (IOI), las Финал чемпионата мира ICPC и Китайской математической олимпиады. Более того, она интегрирует возможности, полученные из модели DeepSeek-Math-V2, специализирующаяся на доказательстве теорем и решении задач высокой сложности, что укрепляет ее позиции в сегменте моделей для научно-технических исследований.

В отличие от стандартной версии, DeepSeek-V3.2-Speciale не предназначен для решения повседневных задач. ни к универсальным интеграциям с инструментами. Компания подчёркивает, что эта модель разработана в первую очередь для исследовательская и академическая работа, с потреблением лексемы превосходный, так что на данный момент Предлагается только через API. а не через приложения общего назначения.

Наличие DeepSeek-V3.2, апертура и контраст с американскими гигантами

DeepSeek опубликовал полные веса DeepSeek-V3.2 и подробный технический отчет В отношении их обучения, что контрастирует с всё более строгими правилами некоторых крупных американских технологических компаний, которые часто ограничивают доступ к коду или размер своих самых продвинутых моделей. Даже в случаях с открытым исходным кодом Частичное, как и некоторые версии Ламы, открытие происходит с определенными условиями и нюансами.

В европейском контексте эта степень прозрачность и открытость Это может быть ключевым для проектов, требующих аудита, соответствия нормативным требованиям или возможности адаптации моделей к нормативным базам, таким как Закон Европейского Союза об искусственном интеллектеУниверситеты, исследовательские центры и государственные учреждения могут более подробно изучать модель, повторять эксперименты или даже адаптировать некоторые ее части под собственные нужды, не будучи полностью зависимыми от закрытого внешнего API.

Компания поставила DeepSeek-V3.2 доступен сообществу на таких платформах, как Hugging Face и ModelScope.С другой стороны, помимо предоставления доступа через API, вариант Speciale в настоящее время ограничен потреблением через программный интерфейс из-за его более высокие вычислительные требования и стоимость за токенТакая смешанная стратегия распространения соответствует интересам многих европейских игроков, желающих иметь надежные модели для исследований, хотя их коммерческое развертывание может потребовать более тщательного планирования.

Роль Китая в глобальной гонке искусственного интеллекта

Выпуск DeepSeek-V3.2 состоялся в то время, когда Китай стремится укрепить свое лидерство в области ИИ Несмотря на ограничения на доступ к передовым полупроводникам и растущую геополитическую напряженность, DeepSeek стала одним из самых обсуждаемых имен в китайской экосистеме после того, как в начале этого года появилась на сцене с моделью, которая удивила всех своим соотношением мощности и стоимости, а теперь она наращивает свои возможности, добавляя высокоуровневые агенты и возможности рассуждений.

Для Европы, где обсуждение сосредоточено на том, как сбалансировать инновации, защита данных и безопасностьТакое развитие событий создаёт как возможности, так и проблемы. С одной стороны, наличие высокопроизводительных открытых моделей из Китая расширяет спектр инструментов, доступных европейским лабораториям и компаниям. С другой стороны, возникают вопросы относительно совместимость с местными правилами, трансграничные потоки данных и влияние регулирование контента в Китае, что некоторые эксперты считают возможным препятствием для полноценного международного распространения этих систем.

DeepSeek также стал узнаваемым за пределами своего внутреннего рынка после того, как его модель V3.1 приняла участие в автоматизированные инвестиционные эксперименты по сравнению с такими системами, как GPT-5 и Gemini 2.5 Pro, где он показал конкурентоспособные результаты. Эта стратегия дополняется запуском других моделей, таких как DeepSeek-OCR, направленный на сжатие текста посредством визуального восприятия и его обработку с меньшими ресурсами, укрепляя имидж компании как субъекта, ориентированного на эффективность и открытый исходный код.

Ожидания, ограничения и следующие шаги

Несмотря на заявления компании, DeepSeek признает, что V3.2 все еще отстает от некоторых своих американских аналогов в таких аспектах, как общее знание мира, понимание широкого культурного контекста или эффективность использования токенов. Более того, сами руководители проекта признают, что сравнения на основе публичных эталонов Они не всегда отражают реальную производительность в производственных средах, особенно в открытых задачах и с конечными пользователями.

Еще один момент, который следует учитывать, заключается в том, что интеграция инструментов в режиме рассуждения Его ещё предстоит тщательно проверить в сложных реальных сценариях использования, от здравоохранения до принятия финансовых и юридических решений. Экономия вычислительных затрат, обеспечиваемая DSA, значительна, но она может быть сведена на нет, если качество ответов не будет стабильно поддерживаться, когда задачи становятся более неоднозначными или требуют крайне специфичного контекста.

С появлением DeepSeek-V3.2 и его версии Speciale, сфера передового ИИ-мышления получает нового игрока с глобальными амбициями, делающего ставку на открытые модели, интегрированные инструменты и сдерживаемые затратыЭти разработки расширяют спектр возможностей, доступных в научных исследованиях, бизнесе и государственном управлении, одновременно заставляя переосмыслить, как вписать быстрое развитие ИИ в требовательную нормативную базу и все более острую конкуренцию между технологическими блоками.

DeepSeek
Теме статьи:
У DeepSeek и ChatGPT есть еще один конкурент из Китая, который может даже превзойти его.