突发!DeepSeek又“崩”了!

频道:德宏点播 日期: 浏览:4

  DeepSeek连续三天发生服务异常。

  3月31日17时,“DeepSeek(深度求索)又崩了”再次冲上热搜。DeepSeek官网服务状态页面显示,3月29日至31日,DeepSeek旗下服务连续三天出现不同程度异常,涉及网页对话、App及API等。故障分别持续约1小时48分、10小时13分和1小时3分。根据官方状态页记录,三次故障均已修复,目前所有服务恢复稳定运行。

  据经济观察报报道,一位模型技术社区负责人表示,从2026年2月至今,DeepSeek走过了多个预期发布窗口,仍未正式发布V4,就在市场期待这一模型新品空降时,等来的却是DeepSeek成立以来最长的一次服务中断。

  多名国产模型供应商人士推断:此次只有DeepSeek面向C端的产品服务中断,或与模型迭代过程中进行灰度测试有关。

  前述技术社区负责人认为,DeepSeek已经为测试V4准备好了相关基础设施。3月初,DeepSeek网页端作出更新显示,代码能力与上下文处理均有增强,业内猜测这可能是DeepSeek V4在作隐身测试。

  一名与多家模型厂商合作的供应商对DeepSeek的隐身测试有个人理解:DeepSeek V4要在4月正式发布前,提前面向C端用户群展开产品测试,从而把握其新增的“原生推理层”是否能在处理高并发请求时保持稳定性。

  3月30日,DeepSeek技术团队将服务中断问题全面解决后,官方的API文档中未列出任何关于V4模型的ID。

  上述模型供应商分析,DeepSeek在冲击更高性能架构过程中,扩张至百万Tokens级别的推理能力暴露了其基础设施建设的短板,新旧架构在底层存储聚合层出现了冲突。

  2026年1月27日,DeepSeek发布全新DeepSeek-OCR 2模型,采用创新的DeepEncoder V2 *** ,让AI能够像人类一样按照逻辑顺序“看”图像。这项技术的核心创新在于改变了传统AI处理图像的方式。DeepEncoder V2让AI基于图像含义动态重新排列图像片段,而非传统的从左到右刚性扫描。这种 *** 模仿了人类追随场景逻辑流的方式。

  根据DeepSeek公布的技术报告,DeepSeek-OCR 2在多项关键指标上展现出显著优势。在OmniDocBench v1.5基准测试中,该模型取得了91.09%的成绩,相较于前代DeepSeek-OCR提升了3.73%。

  值得注意的是,该模型在保持极高精度的同时,严格控制了计算成本,其视觉Token数量被限制在256至1120之间,这一上限与Google的Gemini-3 Pro保持一致。在实际生产环境中,该模型在处理在线用户日志和PDF预训练数据时的重复率分别下降了2.08%和0.81%,显示出极高的实用成熟度。

  根据DeepSeek公布的技术报告,现有的视觉语言模型(VLMs)通常采用固定的光栅扫描顺序(光栅扫描顺序)处理图像切片,即机械地从左上角扫描至右下角。DeepSeek团队指出,这种方式引入了不必要的归纳偏差,与人类视觉感知背道而驰。人类在阅读复杂文档、表格或追踪螺旋线条时,视线是受语义理解驱动的“因果流”,后一次注视往往因果依赖于前一次注视,而非单纯的空间坐标移动。

  受此认知机制启发,DeepSeek-OCR 2的核心组件DeepEncoder V2被设计用于赋予编码器因果推理能力。通过引入可学习的“因果流查询”(Causal Flow Queries),模型能够在进入LLM解码器进行内容解释之前,先在编码阶段就对视觉信息进行智能重排序。这实际上构建了一个两级级联的1D因果推理结构:首先由编码器在语义上重组视觉Token,随后由解码器对有序序列进行自回归推理。

  这种设计不仅符合光学文本、表格和公式的非线性布局特征,还有效弥补了2D图像结构与1D语言建模之间的鸿沟。

  DeepSeek-OCR 2的发布不仅是一次OCR性能的升级,更具有深远的架构探索意义。DeepEncoder V2初步验证了使用语言模型架构作为视觉编码器的潜力。这种架构天然继承了LLM社区在基础设施优化方面的成果,如混合专家(MoE)架构和高效注意力机制。

  DeepSeek团队认为,这为迈向统一的全模态编码器提供了一条有希望的路径。未来,单一编码器可能通过配置特定模态的可学习查询,在同一参数空间内实现对图像、音频和文本的特征提取与压缩。DeepSeek-OCR 2所展示的“两个级联的1D因果推理器”模式,通过将2D理解分解为“阅读逻辑推理”和“视觉任务推理”两个互补子任务,或许代表了实现真正2D推理的一种突破性架构 *** 。

  综合自:深度求索官网、经济观察报、券商中国