DeepSeek开源OCR-2模型,梁文锋带队探索新架构_视觉_Token_顺序
出品|搜狐科技
作者|常博硕
编辑|杨锦
临近春节,DeepSeek的更新也越来越频繁了。
刚刚,DeepSeek团队发布了论文《DeepSeek-OCR 2:Visual Causal Flow》,并正式开源了DeepSeek-OCR 2模型。论文三位作者分别是魏浩然、孙耀峰和李宇琨。
要读懂这篇文章,首先要知道的一个问题就是:啥是OCR?
其实,OCR是光学字符识别(Optical Character Recognition)的缩写,基本思路就是让计算机能看懂图像中的文字。比如我们把手机拍摄的***、合同扫描件、书籍照片等转换成计算机可以编辑和搜索的文字内容,这就是OCR。
传统OCR模型通常遵循扫描式的思路,首先检测图像中的文字区域,再一个字一个字或一行一行地识别,这种固定扫描顺序就容易忽略文档的整体结构。但人不是这样的,我们在阅读复杂文档时,通常会先浏览标题然后看看段落表格,会有优先级排序,而不是机械地从左上到右下扫过页面。
现在的问题是,当文档结构复杂到一定程度时,AI就不知道先看哪儿了。像学术论文一般是多栏排版,文章中还有公式与正文交错出现,技术报告中的表格与注释,报纸版面等等这些都对模型提出了超出传统OCR的要求。
所以,DeepSeek新开源的DeepSeek-OCR 2模型其实就是为了让机器阅读更像人而设计的。
提出视觉因果流
DeepSeek-OCR 2作为新一代视觉语言OCR模型,核心创新在于提出了视觉因果流(Visual Causal Flow)的编码器架构。
DeepSeek-OCR 2的整体架构延续了DeepSeek-OCR的“编码器—解码器”设计,其中解码器仍然***用约3B参数的MoE语言模型,编码器部分则升级为DeepEncoder V2。
从论文中看,DeepEncoder V2编码器通过引入语义驱动的顺序重排,使AI能够根据图片内容的逻辑顺序来处理信息,而不再只是按照固定的栅格顺序。
上图示意了DeepSeek-OCR 2的核心架构。左边为传统DeepEncoder,使用CLIP视觉模型,右图为DeepEncoder V2。新的架构使用了语言模型作为视觉编码器(LM as Vision Encoder),并在视觉Token序列后附加了因果查询(learnable query),用于新的阅读顺序排列。
一个关键的点在于,DeepSeek-OCR 2使用了语言模型架构作为视觉编码器。
在DeepEncoder V2中,DeepSeek用一个轻量级语言模型(Qwen2-500M)取代了传统的CLIP ViT。这样做就可以让模型在视觉编码阶段本身就具备序列建模和因果推理能力,使得其与后续的语言解码阶段在建模范式上保持一致。
从架构上看,DeepSeek-OCR 2并未增加视觉token的数量,也没有引入额外的多模态复杂结构,而是通过注意力掩码的重新设计,让“顺序”成为可学习的对象。这使得模型在处理表格、公式、多栏排版等场景时,能够更自然地恢复文档的逻辑结构。
注意力掩码的设计其实十分有意思。在编码器中,视觉token与一组新增的因果流查询token被拼接成一个统一序列,但两者在注意力机制上其实是非对称的。
视觉token之间***用双向注意力,保持与ViT类似的全局建模能力。而查询token之间***用严格的因果注意力,每个query(查询)只能关注其之前的query,同时,每个查询token都可以访问所有视觉token。
在这种注意力掩码的作用下,查询token被迫以序列化方式逐步聚合视觉信息,其内部顺序不再由空间坐标决定,而是在训练过程中,在语义建模目标的驱动下逐步形成更接近人类阅读逻辑的视觉表示序列。
这种设计就和人类阅读文档的方式高度相似,首先获取全局结构,随后在语义理解的引导下,决定接下来该看哪里。
部分表现优于Gemini
在OmniDocBench v1.5基准测试中,DeepSeek-OCR 2在整体准确率上达到91.09%,在使用最少视觉token的情况下,较上一代DeepSeek-OCR提升了3.73%。
在衡量阅读顺序(R-order)的指标编辑距离(Edit Distance)上,DeepSeek-OCR 2从前代的0.085降低到了0.057,证明了新模型不仅识别得更准,结构理解能力也发生了实质变化。
在和Gemini-3 Pro等闭源强模型的对比中,在均使用约1120个视觉Token的情况下,DeepSeek-OCR2的文档解析编辑距离(0.100)也优于Gemini-3 Pro(0.115)。
根据DeepSeek披露的数据,在真实用户日志与PDF批量处理场景中,DeepSeek-OCR 2的重复输出率也有了明显下降。
相比前代模型,DeepSeek-OCR 2在在线用户日志图像中,重复率从6.25%降至4.17%。在PDF数据生产场景中,重复率从3.69%降至2.88%。重复输出往往源于模型对文档结构理解不充分,导致内容会被多次误读,从结果来看,视觉因果流的引入也有效缓解了这一问题。
如果放在更宏观一点的角度,其实DeepSeek-OCR 2还提供了一种新的框架思路,那就是二维视觉理解,是否可以拆解为两层一维因果推理。在这一框架下,编码器负责怎么读内容,解码器负责如何回答,两者共同完成对复杂视觉内容的理解。
这也是DeepSeek在论文最后提出的一个长期方向——原生多模态(Native Multimodality)。如果同一套因果查询机制可以用于视觉、文本甚至音频,那么OCR可能只是这一架构的起点,而不是终点。
正如论文最后所说,虽然光学文本识别,特别是文档解析,是大语言模型时代最实用的视觉任务之一,但它仅占视觉理解领域的一小部分。
展望未来,DeepSeek将向着更通用的多模态智能继续“深度求索”。返回搜狐,查看更多
同类文章排行
- 为什么负荷那么大的腰部力量训练的人不会受伤,长期无载荷久坐的人会出现腰肌劳损?
- 为什么有的女生喜欢穿紧身牛仔裤?
- 用PHP写了个小框架,怎么才能得到大佬们的指点?
- MacOS真的比Windows流畅吗?
- 如何看待演员夏雨称「真正玩极限运动的都是胆小的人」,如何理解这一观点?
- 华为为什么不放弃ARM指令集?
- 如何看待 2025 浙江高考杭州二中高分段被镇海宁海学军等校「碾压」?
- 成为体育女主播,光「好看」就够了吗?
- 如果意外挖出 10 吨黄金,有那些将它们洗白、正常使用的方法?
- 如何看待M4单核性能吊打9950x?
最新资讯文章
- 个人开发者或小企业不申请经营性ICP备案,怎样开发APP盈利?
- 有网友称相机电池不能上飞机了,哪怕是原厂电池只要没有 3C 标志就不行,是真的吗?这规定合理吗?
- 我是新手想养鱼,预算不超过200。有什么好的建议或者禁忌吗。?
- 有哪些女主让你觉得真是「人间尤物」?
- Docker 的应用场景在哪里?
- 扫黑风暴为什么他们费老大劲杀这么多人不如直接把督导组干掉?
- 网络小白如何建立一个网站,供别人下载文件(主要是PDF和MP3)?
- 为什么 Bun 选择了 Zig 以及 JSCore?
- 为什么要学go语言,golang的优势有哪些?
- 有听过什么特别毁三观或者特别奇葩的事情吗?
- 为什么河南饮食走不出去?
- 国内很多男性在非洲和当地女人恋爱是真的吗?
- 字节引入Rust是否代表J***a的缺点Go也没解决?
- 公司有一块纯屏幕,能不能做到让他插上u盘就自动播放里面的***?
- 如何看待***《临高启明》中,元老院即将发动的北伐战争?
- 为什么越来越多的国内男孩,要娶国外女孩?
- 世界上存在动漫少女般完美的「身体」吗?
- 如何评价腾讯元宝桌面端使用 Rust 的 Tauri 框架?
- 什么是 5G 固定无线接入(FWA)?
- 如何看待杭州多家健身房拒绝为 60 岁以上老人办卡?如果有老年友好健身房,哪些设备是必要的?





