当前位置:首页 > Deepseek最新资讯 > 正文内容

DeepSeek新模型很疯狂:整个AI圈都研究视觉路线,Karpathy不装了

  昨天下午,全新模型 DeepSeek-OCR 突然开源。在该模型的处理过程中,1000 个字的文章能被压缩成 100 个视觉 token,十倍的压缩下精度也可以达到 97%,一块英伟达 A100 每天就可以处理 20 万页的数据。

  这种方式或许可以解决大模型领域目前头疼的长上下文效率问题,更重要的是,如果「看」文本而不是「读」文本最终被确定为正确的方向,也意味着大模型的范式会发生重要的转变。

  因为是开源的小模型,DeepSeek-OCR 第一时间经历了整个 AI 社区的检验,很多大佬在看完论文之后纷纷发表了看法,兴奋之情溢于言表。

  OpenAI 联合创始成员之一,前特斯拉自动驾驶总监 Andrej Karpathy 表示,它是一个很好的 OCR 模型。

  他表示,作为一个本质上是研究计算机视觉,暂时伪装成自然语言专家的人,他更感兴趣的部分是:对于大语言模型来说,像素是否比文本更适合作为输入?文本 token 在输入端是否浪费资源,甚至很糟糕?

  也许更合理的是,LLM 的所有输入都应该是图像。即使你碰巧有纯文本输入,也许你更愿意先渲染它,然后再输入:

  OCR 只是众多有用的视觉-文本任务之一。文本-文本任务可以转换为视觉-文本任务,反之则不行。

  很多用户信息都是图像,但解码器(智能助手的响应)仍然是文本。如何真实地输出像素…… 或者说,如果你想要输出像素,那就不那么明显了。

  纽约大学助理教授谢赛宁也发推对 Karpathy 的评论给予了高度评价,他尤其对其中「作为一个本质上是研究计算机视觉,暂时伪装成自然语言专家的人」这一句深感共鸣。

  毕竟正是谢赛宁当年首次将 Transformer 架构与扩散模型相结合,提出了扩散 Transformer(DiT),为文生视频开启了新的道路。

  Emanuel 继续写道:传统上,在多模态大语言模型中,视觉 token 几乎像是事后添加的产物,或者说是「外挂」在语言模型框架之上的功能。而如果用可识别的图像像素形式来表示文本,那么一万英文单词在多模态 LLM 中所占的空间,将远远大于用文本 token 表示时的空间。

  举例来说,那一万字的英文文本可能原本对应 15,000 个文本 token,但如果转换成视觉 token,可能就会变成 30,000 到 60,000 个视觉 token。由此可见,视觉 token 的效率低得多,因此过去它们只适用于那些无法用文字有效表达的数据(例如图像或视觉场景)。

  换句话说,原本需要 10,000 个单词的文本,现在理论上只需约 1,500 个经过特殊压缩的视觉 token 即可完整表示。

  毕竟,当我们回忆一本读过的书的某一部分时,往往会以视觉的方式来定位:我们能记得那段内容在书的哪一页、哪一侧、页面的大致位置,这说明我们的大脑在使用某种视觉记忆表征机制。

  不过,目前还不清楚这种机制在 LLM 的下游认知能力中会如何表现。模型在使用这些压缩后的视觉 token 时deepseek,是否还能像使用普通文本 token 那样进行智能推理?或者,这种方式会不会让模型变得不那么善于表达语言,因为它被迫更多地以视觉方式来思考?

  无论如何,可以想见:根据实际的性能权衡,这可能成为一个极具潜力的新方向,用于大幅扩展模型的有效上下文长度(context size)。

  尤其是如果与 DeepSeek 几周前发布的另一篇关于稀疏注意力(sparse attention)的论文结合使用,前景将更加令人兴奋。详情可参阅机器之心报道《刚刚,DeepSeek 开源 V3.2-Exp,公开新稀疏注意力机制 DSA》。

  他还提到:「据我们所知,谷歌也可能早就发现了类似的技术,这或许能解释为什么 Gemini 模型拥有如此巨大的上下文窗口,并在 OCR 任务上表现得又快又好。当然,如果他们真的做到了,可能也不会公开说明 —— 毕竟这会被视为核心商业机密。而 DeepSeek 的可贵之处在于:他们选择了完全开源,包括模型权重与方法细节。这意味着,任何人都可以试验、验证并进一步探索这一突破。」

  即使这些技巧可能让注意力机制的表达变得略微「有损」(lossy),但如果它能让前沿级 LLM 拥有 一千万甚至两千万 token 级别的上下文窗口,那无疑是令人振奋的。

  设想一下:你可以把一家公司的所有关键内部文档都塞进提示词的前缀(prompt preamble)中,并缓存到 OpenAI 的系统里。之后只需在其上添加具体的问题或提示词,无需搜索工具,就能快速且经济地完成查询。

  或者,你可以将整个代码库都放入上下文中并缓存,每次修改时只需追加相当于 Git 有差异的部分内容。

  他还表示:「这让我想起著名物理学家 Hans Bethe(汉斯・贝特) 的故事 —— 他以记忆力惊人著称,能背下大量随机的物理数据(例如整个元素周期表、各种物质的沸点等),因此在思考与计算时几乎从不需要中断去查阅资料。」

  毫无疑问,拥有大量与任务相关的知识并能随时调用,是极其强大的能力。而DeepSeek 的这一方法,似乎正是一个聪明且可扩展的路径,有望让模型的「工作记忆」容量提升 10 倍甚至更多。

  不过,值得注意的是,有不少研究者指出,DeepSeek 新模型虽然在工程上取得了不可否认的巨大成功,但其核心方法思路并非首创。

  具体来说,PIXEL 是一种预训练语言模型,可将文本渲染为图像,从而能够基于文字形态的相似性或像素共激活模式在不同语言之间实现表示的迁移。与传统语言模型预测 token 分布的方式不同,PIXEL 的训练目标是重建被遮盖图像块的像素。

  不管怎样,看起来 DeepSeek-OCR 确实是一个非常好用的模型,也已经有不少先行者开始用起来了:

  最后,在 DeepSeek-OCR 热烈的讨论人群中,也有一群外国人注意到了其论文中有趣的 Prompt 示例,在研究什么叫「先天下之忧而忧,后天下之乐而乐」。

  你是否已经尝试过 DeepSeek-OCR 模型?又怎么看待其背后的「以视觉方式压缩一切」的研究思路?原文出处:DeepSeek新模型很疯狂:整个AI圈都研究视觉路线,Karpathy不装了,感谢原作者,侵权必删!

标签: deepseek

“DeepSeek新模型很疯狂:整个AI圈都研究视觉路线,Karpathy不装了” 的相关文章

DeepSeek预测:卡利亚里vs国际米兰!蓝黑军团火力全开,图拉姆能否再创奇迹

DeepSeek预测:卡利亚里vs国际米兰!蓝黑军团火力全开,图拉姆能否再创奇迹

  意甲第5轮即将迎来一场焦点战,卡利亚里将在主场迎战国际米兰。目前卡利亚里以7分排名第7,距离欧战区仅1分之差;而国际米兰则以6分排名第10,距离欧战区2分。这场比赛对于双方争夺欧战资格...

DeepSeek-V3.1模型于日前发布 AI主题投资热度升温

DeepSeek-V3.1模型于日前发布 AI主题投资热度升温

  中证网讯 近期,国产大模型厂商DeepSeek推出V3.1版本,受到市场热议。有基金人士认为,国内AI(人工智能)产品或正迎来新拐点,不妨关注港股科技30ETF(513160)及其联接...

沐曦股份即将上市 其下一代国产高端GPU芯片或再现“DeepSeek神话”

沐曦股份即将上市 其下一代国产高端GPU芯片或再现“DeepSeek神话”

  近日,上海证券交易所公告显示,上市审核委员会定于10月24日审议沐曦集成电路(上海)股份有限公司(以下简称“沐曦股份”)的首发申请。   作为国内高性能GPU产品的领...

DeepSeek V3.1再更新:缓解中英文混杂,智能体输出更稳定

DeepSeek V3.1再更新:缓解中英文混杂,智能体输出更稳定

  9月22日晚间,据DeepSeek介绍,此次更新在保持模型原有能力的基础上,针对用户反馈的问题进行了改进,包括:语言一致性:缓解中英文混杂、偶发异常字符等情况。在Agent(智能体)能...

登顶 Nature 封面!DeepSeek-R1 通过全球顶尖科学家最严苛的“同

登顶 Nature 封面!DeepSeek-R1 通过全球顶尖科学家最严苛的“同

  但这次登上《自然》的正式版,是经过了全球顶尖科学家最严苛的“同行评审”打磨后的最终成果,含金量和影响力都不可同日而语。   1、开创性地验证了“纯结果导向”强化学习的...

DeepSeek预测:巴塞罗那VS皇家社会!莱万领衔火力全开,巴萨主场碾压?

DeepSeek预测:巴塞罗那VS皇家社会!莱万领衔火力全开,巴萨主场碾压?

  2025赛季西甲第7轮焦点战,领头羊皇家马德里(18分)身后的巴塞罗那(16分)将在路易斯孔帕尼斯奥林匹克体育场迎战深陷降级区边缘的皇家社会(5分)。巴萨本赛季场均轰入2.71球(联赛...