当前位置:首页 > Deepseek最新资讯 > 正文内容

热议!DeepSeek V3.1惊现神秘「极」字 Bug,模型故障了?

2个月前 (08-26)Deepseek最新资讯269

  上周三,DeepSeek 开源了新的基础模型,但不是万众期待的 V4,而是 V3.1-Base,而更早时候,DeepSeek-V3.1 就已经上线了其网页、App 端和小程序。

  经过这差不多一周时间的真实用户测试,DeepSeek-V3.1 却被发现存在一个相当让人无语的问题:其某些输出 token 会被随机替换为「极」。

  具体来说,据知乎用户 Fun10165 描述,她在调用火山引擎版 DeepSeek V3.1 帮助整理一份物理试卷时发现,该模型的输出中会莫名出现一些「极」字。

  有意思的是,她还尝试了调用官方 API 修复这个问题。结果,在修复的过程中又出现了这个问题。

  她表示:「实测deepseek,官方网页 / API 能复现,概率不高,但多试几次就能出来。VolcEngine API 复现概率非常高。」

  比如知乎用户「去码头整点薯条」分享说 R1 也存在类似的问题,他还简单猜想了原因:「使用 R1 0528 的时候就遇到了很多次,我观察到的现象更离谱,会在代码里面插入 “极客园”,而且遇到不止一次,怀疑是不是学习的时候吃进去了什么电子水印吃坏肚子了。」

  知乎用户「琪洛」则发现 V3-0324 也存在类似问题,只不过这一次输出的是「极速赛车开奖直播」字符串。

  她猜想道:「怀疑可能数据没洗干净,即便重新训了 base 这个问题还是留下了,题主和其他回答所述「极」和「极速」可能就是这个词的残余痕迹。」

  发帖者用户 u/notdba 表示,在测试 DeepSeek V3.1 时,他发现模型会莫名地在某些意料之外的位置输出如下 token:

  他继续描述到,除了这 3 种「极」 token 在贪婪解码中成为首选的情况之外,这些「极」 token 也经常在其他意想不到的地方潜伏为第二或第三选择。

  他的猜测是该问题可能会被 MTP(多 token 预测)掩盖,并且当推理堆栈不支持 MTP 时就会变得更加明显,比如 llama.cpp 就还不支持 MTP。这个猜想的合理之处在于支持 MTP 的 DeepSeek 官方 API 更不容易遇到这种情况,而第三方部署的同款模型则更容易出现这个问题。

  他给出的可能解释是:「极」的 token 是 2577,而省略号「...」的 token 是 2576。这两者可能被模型混淆了。

  还不只是「极」,也有用户发现 DeepSeek-V3.1 还存在多语言混用的问题,u/Kitano_o 分享说:「我使用 3.1 从中文翻译成俄语时,遇到一些奇怪的行为。它开始混合多种语言 —— 添加英文词,也留下些中文词。有时这些问题会占到文本的 5%,有时只占 1%,甚至 0%。而且使用 OpenRouter 的不同提供商都会出现这个问题,即使我使用 DeepSeek 作为提供商也会。」

  总体而言,对于 DeepSeek-V3.1 这个可以说相当严重的问题的原因,网友给出的猜测更多还是「数据污染」。

  比如阶跃星辰黄哲威表示:「我认为是本身 sft 数据合成甚至是构造预训练数据的时候没洗干净引入了 “极长的数组” 这种怪东西(从 R1 的行为看,似乎大量使用了 RAG 方法来造难题的解答),然后 RL 的时候模型直接把这个字当某种终止符或者语言切换标记使用了。」

  他还提到:「其实推理出 bug,大概率都是数据问题,很多人都知道。只是 R1 的其它 bug 没有这么高频发生,社区不太关注而已。」

  这次事件也给所有模型开发者敲响了警钟:在追求更高性能的 AI 模型时,最基础的数据质量,才是决定 AI 是否会「行为异常」的关键。原文出处:热议!DeepSeek V3.1惊现神秘「极」字 Bug,模型故障了?,感谢原作者,侵权必删!

标签: deepseek

“热议!DeepSeek V3.1惊现神秘「极」字 Bug,模型故障了?” 的相关文章

年轻人与DeepSeek聊杂技丨吴桥人是不是有杂技DNA?

年轻人与DeepSeek聊杂技丨吴桥人是不是有杂技DNA?

  长城网·冀云客户端讯(孙欣宇)随着第二十届中国吴桥国际杂技艺术节的脚步越来越近,吴桥再度成为世界瞩目的焦点。吴桥杂技历史悠久,村村都有杂技艺人,素有“上至九十九,下到刚会走,吴桥耍杂技...

颠覆行业!仅29.4万美元,DeepSeek R1超低训练成本登上《自然》封面

颠覆行业!仅29.4万美元,DeepSeek R1超低训练成本登上《自然》封面

  所公布的数亿美元级别成本,更标志着全球首个通过权威期刊同行评审的大型语言模型正式诞生,引发科技界对   论文首次公开了R1模型的详细训练成本与技术细节:该模型使用51...

DeepSeek发布V3.1版本,专为国产芯片优化,支持双模式推理架构

DeepSeek发布V3.1版本,专为国产芯片优化,支持双模式推理架构

  8月21日,DeepSeek正式发布其最新版本DeepSeek-V3.1,该版本采用了UE8M0 FP8 Scale的参数精度。据悉,这一技术规格专门为即将发布的下一代国产芯片进行优化...

DeepSeek严正声明:防范诈骗!

DeepSeek严正声明:防范诈骗!

  9月17日晚,深度求索(DeepSeek)发布声明指出,近期deepseek,有不法分子冒充“深度求索”公司或在职员工,伪造工牌、营业执照等材料,在多个平台以“算力租赁”、“股权融资”...

DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态

DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态

  当前,业界顶尖的大模型正竞相挑战“过度思考”的难题,即无论问题简单与否,它们都采用 “always-on thinking” 的详细推理模式。无论是像 DeepSeek-V3.1 这种...

DeepSeek深度思考按钮更新,V3与R1合并部署降本增效

DeepSeek深度思考按钮更新,V3与R1合并部署降本增效

  据新浪科技,在最新的App和官网上,新版DeepSeek输入框中的“深度思考(R1)”按钮,直接变成了“深度思考”。这意味着在开启深度思考模式后,DeepSeek调用的推理模型或已不再...