Неуспехът с Huawei се оказа пробив. DeepSeek V3.1 изгражда нови мостове – към едно бъдеще без Nvidia
Контекстният прозорец се удвои, но основната битка тепърва започва.
DeepSeek представи актуализирана версия на своя водещ езиков модел – V3.1, която според разработчиците е адаптирана за използване с предстоящите китайски чипове. Новата версия е базирана на актуализирания формат на числата с плаваща запетая UE8M0, който е вариант на FP8. Тя е предназначена да осигури по-добра съвместимост с бъдещите AI ускорители, произвеждани в Китай.
От компанията уточниха, че преди това са използвали стандартния формат FP8 E4M3, а преходът към UE8M0 е свързан не толкова с оптимизиране на производителността, колкото с осигуряване на пълна съвместимост с новата процесорна архитектура. DeepSeek не назовава конкретните производители на чипове, но по-рано беше съобщено за тясно сътрудничество с Huawei, в частност – за опити за обучение на следващото поколение модел (условно обозначено като R2) на базата на ускорителите Ascend. Тези опити се оказаха неуспешни : моделът трябваше да се върне към чиповете Nvidia H20. Въпреки това Huawei продължава да се разглежда като възможна платформа за инференциране.
Любопитно е, че въпреки представянето на V3.1 като значителна актуализация, в действителност моделът е обучен върху контролния индекс на предишната версия V3. Нововъведенията не са архитектурни промени, а по-скоро преконфигуриране и интегриране на нови механизми за обработване на данните. Сред тях е обединяването на подходите за генериране на „обмислени“ и „необмислени“ отговори. Преди това DeepSeek предлагаше два варианта на моделите за различните задачи, но сега двата режима са обединени в една система, като превключването между тях става с помощта на чат шаблони.

Този подход вече е тестван от други компании, включително Alibaba, която се опита да приложи подобна концепция в своите модели Qwen 3 през първата половина на годината. Тогава обаче идеята беше изоставена, тъй като подобна хибридизация доведе до по-лоши резултати.
В случая със DeepSeek ситуацията, поне при тестовете, е по-различна: моделът показва значително увеличение на точността при генериране на прости (необмислени) отговори, а когато се активира режимът на разсъждаване, се постига спестяване на токени, необходими за получаване на релевантен резултат. Това е особено важно за намаляване на разходите за поддръжка на модела в производствена среда.
Контекстният прозорец на V3.1 също е увеличен: сега той побира до 131072 токена – два пъти повече от предишната версия. Въпреки това DeepSeek все още изостава дори от китайските си конкуренти по този параметър – например от Qwen3, който може да обработва контексти за един милион токена.
Специално внимание в актуализацията е обърнато на възможностите за извикване на инструменти и взаимодействие с външни функции – ключов компонент за агентно-базираните AI сценарии. Според тестовете на Browsecomp, бенчмарк, който оценява уменията за автономна навигация в браузъра, новият модел е постигнал резултат от 30 точки, докато предишната актуализация (версията R1 от месец май) е получила само 8,9 точки. Това показва драстичен напредък при сложните задачи, които изискват взаимодействие с външните източници на информация в реално време.
Както тегловните параметри на базовия модел, така и специализираната му версия с настройка на инструкциите са достъпни за разработчиците – те са публикувани в Hugging Face и ModeScope. Моделът също така е интегриран в собствен чатбот и е достъпен чрез API.
По този начин DeepSeek залага на предварително изградена архитектура, готова за бъдещите китайски чипове. Това подчертава стратегическата цел за намаляване на зависимостта от чужди технологии и осигуряване на технологична автономност, особено на фона на ограниченията в доставките на западни ускорители.









