Новость
Китайский стартап DeepSeek представил новое обновление своей линейки LLM — модели DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Компания позиционирует их как решения нового поколения, адаптированные под агентные сценарии: многошаговое рассуждение, планирование, сложные цепочки вывода и взаимодействие со структурированными средами.
DeepSeek-V3.2 уже доступна в фирменном чате, на сайте и через API. Версия Speciale пока работает только по API через временную точку доступа — до 15 декабря 2025 года.
Обновление приходит на смену экспериментальной V3.2-Exp и включает переработанный датасет для задач reasoning. Главное техническое нововведение — встроенная способность модели «думать» во время использования инструментов: для DeepSeek это первое поколение с такой архитектурой.
V3.2-Speciale ориентирована на тяжёлые сценарии пошагового поиска и планирования. По данным компании, она показывает сильные результаты на математических олимпиадах и профильных AI-бенчмарках, включая IMO, CMO и ICPC.
Как и раньше, DeepSeek напрямую сопоставляет свои разработки с лидерами рынка. В компании утверждают:
V3.2 — «уровень качества примерно GPT-5, при этом быстрее и дешевле по инференсу».
V3.2-Speciale — «конкурент Gemini-3.0-Pro на задачах многошагового reasoning».
Обе модели обучались на масштабном массиве синтетических данных: более 1800 интерактивных сред и 85 тысяч сложных инструкций, сформированных под задачи поиска, планирования и работы с инструментами.