Мир искусственного интеллекта вновь порадовал нас захватывающим событием. DeepSeek V3.1, представленный компанией DeepSeek, привлекает внимание как своей производительностью, так и доступностью. Почему же эта модель вызывает такой ажиотаж? Давайте разберемся вместе.
DeepSeek V3.1 Основные особенности
DeepSeek V3.1, хотя и имеет в общей сложности 685 миллиардов параметров, благодаря архитектуре Mixture-of-Experts (MoE) активно использует только 37 миллиардов параметров. Это позволяет ему обеспечивать как высокую производительность, так и энергоэффективность. Кроме того, благодаря контекстному окну на 128 тысяч токенов он может обрабатывать длинные тексты и давать согласованные результаты при выполнении сложных задач.
Два разных режима: Подумай и ответь
Одной из наиболее примечательных особенностей модели является гибридный механизм мышления. Пользователи могут направить модель на проведение глубокого анализа с помощью тегов <think> и </think>. Это позволяет получать более логичные ответы на сложные вопросы. Возможность перехода в режим прямого ответа при необходимости значительно ускоряет работу пользователя.
Кодирование и поддержка инструментов в режиме реального времени
DeepSeek V3.1 не только генерирует текст, но и обладает высокими способностями в таких областях, как написание кода, отладка и интеграция API. Эта функция, разработанная специально для программистов, выделяет модель среди конкурентов.
Стоимость обучения DeepSeek V3.1 составляет всего 5,6 миллиона долларов, что в 68 раз дешевле, чем у моделей с аналогичными возможностями. Несмотря на это, в тесте Aider по кодированию он превосходит многие модели с закрытым исходным кодом в отрасли, продемонстрировав успешность на уровне 71,6%.
Результаты сравнения DeepSeek V3.1 и более старых моделей
| Категория | Benchmark (Метрика) | DeepSeek-V3.1 (Non-Thinking) | DeepSeek-V3 0324 | DeepSeek-V3.1 (Thinking) | DeepSeek-R1 0528 |
|---|---|---|---|---|---|
| Общее | MMLU-Redux (EM) | 91.8 | 90.5 | 93.7 | 93.4 |
| MMLU-Pro (EM) | 83.7 | 81.2 | 84.8 | 85.0 | |
| GPQA-Diamond (Pass@1) | 74.9 | 68.4 | 80.1 | 81.0 | |
| Поисковый агент | BrowseComp_zh | — | — | 49.2 | 35.7 |
| Код | LiveCodeBench (Pass@1) | 56.4 | 43.0 | 74.8 | 73.3 |
| Aider-Polyglot (Acc.) | 68.4 | 55.1 | 76.3 | 71.6 | |
| Математика | AIME 2024 (Pass@1) | 66.3 | 59.4 | 93.1 | 91.4 |
| AIME 2025 (Pass@1) | 49.8 | 51.3 | 88.4 | 87.5 |
- Режим V3.1 Thinking демонстрирует значительно лучшую производительность по сравнению с предыдущими моделями в сложных задачах, таких как математика (93,1 % в AIME 2024) и программирование (74,8 % в LiveCodeBench).
- Режим V3.1 Non-Thinking обеспечивает небольшое улучшение по сравнению с V3 в общих задачах, но не настолько высокое, как в режиме Thinking.
- R1 силен в математике и логическом мышлении (91,4 % в AIME 2024), но уступает режиму Thinking V3.1.
DeepSeek V3.1 выводит технологию искусственного интеллекта на новый уровень. Благодаря своей производительности, гибкости и открытой архитектуре, она становится привлекательным выбором как для индивидуальных пользователей, так и для компаний. Уже сейчас можно сказать, что в будущем она принесет еще больше инноваций.




