Логотип

Новость

«Уровень качества GPT-5, но быстрее и дешевле» — DeepSeek выкатил модель V3.2

Китайский стартап DeepSeek представил новое обновление своей линейки LLM — модели DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Компания позиционирует их как решения нового поколения, адаптированные под агентные сценарии: многошаговое рассуждение, планирование, сложные цепочки вывода и взаимодействие со структурированными средами.

DeepSeek-V3.2 уже доступна в фирменном чате, на сайте и через API. Версия Speciale пока работает только по API через временную точку доступа — до 15 декабря 2025 года.

Обновление приходит на смену экспериментальной V3.2-Exp и включает переработанный датасет для задач reasoning. Главное техническое нововведение — встроенная способность модели «думать» во время использования инструментов: для DeepSeek это первое поколение с такой архитектурой.

V3.2-Speciale ориентирована на тяжёлые сценарии пошагового поиска и планирования. По данным компании, она показывает сильные результаты на математических олимпиадах и профильных AI-бенчмарках, включая IMO, CMO и ICPC.

Как и раньше, DeepSeek напрямую сопоставляет свои разработки с лидерами рынка. В компании утверждают:

V3.2 — «уровень качества примерно GPT-5, при этом быстрее и дешевле по инференсу».
V3.2-Speciale — «конкурент Gemini-3.0-Pro на задачах многошагового reasoning».

Обе модели обучались на масштабном массиве синтетических данных: более 1800 интерактивных сред и 85 тысяч сложных инструкций, сформированных под задачи поиска, планирования и работы с инструментами.