腾讯云上线DeepSeek-V3.1模型API,智能体开发平台和 TI 平台同步
8月22日,腾讯云上线DeepSeek-V3.1版本,企业和开发者可以通过腾讯云直接调用新版模型的API接口,获得稳定优质的服务。同时,腾讯云智能体开发平台(ADP)也接入了新版模型,通过平台内置的RAG、工作流和智能体开发的能力,用户可以快速搭建专属智能体应用deepseek。新模型在腾讯云TI平台上也第一时间上架,用户可以基于TI平台,快速部署专属DeepSeek-V3.1服务。
腾讯云智能体开发平台内置行业实践流程、领先的 RAG 算法,只需导入文档/问答对,即可让智能体对接企业多模态知识,达到稳定精确的知识问答效果。支持画布式灵活编排工作流,可快速将企业系统 API 接入智能体,智能体输出更稳定可控。同时,提供 LLM+RAG 、Multi-agent、Workflow 等多种智能体开发框架,支持应用配置-应用调试-应用评测-应用发布一站式工具链,助力企业降低智能体构建门槛。
此外,DeepSeek新版模型在腾讯云TI平台上也第一时间上架,用户可一键部署DeepSeek-V3.1专属服务,满足企业的个性化需求。TI平台在业内率先支持DeepSeek全系模型的企业级精调与推理全链路功能,为金融、医疗、制造、零售等多个行业提供了更高效、便捷的AI模型构建及应用方案,进一步降低企业在大模型应用中的技术门槛和研发成本。
DeepSeek-V3.1在工具调用和智能体支持上进一步增强,思考效率也进一步提升,具体体现在:
更高的思考效率:相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 能在更短时间内给出答案。其测试结果显示,经过思维链压缩训练后,V3.1-Think 在输出 token数减少20%-50%的情况下,各项任务的平均表现与R1-0528持平;同时,V3.1 在非思考模式下的输出长度也得到了有效控制,相比于 DeepSeek-V3-0324 ,能够在输出长度明显减少的情况下保持相同的模型性能。
更强的 Agent 能力:通过 Post-Training 优化,新模型在工具使用与智能体任务中的表现有较大提升。比如,在编程智能体上,在代码修复测评 SWE 与命令行终端环境下的复杂任务(Terminal-Bench)测试中,DeepSeek-V3.1 相比之前的 DeepSeek 系列模型有明显提高。
腾讯云是国内率先支持DeepSeek API+联网搜索的云厂商。为了提供更优质的DeepSeek模型服务,腾讯云在推理加速层面不断优化,通过深挖内核和架构延展,以及PD分离、NIXL传输技术,在精度几乎无损的前提下,实现服务时延的大幅降低,以及吞吐能力的大幅提升。比如用户使用DeepSeek R1,在3.5K输入、1K输出的典型场景下, 保障首Token延时不高于2秒,吐字速率不低于每秒15Tokens的同时,2机16卡的QPM超过200;使用DeepSeek V3-0324,在3.5K输入、0.67K输出的典型场景下,2机16卡的QPM达到260。
通过持续的技术优化和产品打磨,腾讯云DeepSeek API以及智能体开发平台、TI平台已经服务了众多客户,覆盖互联网、金融、零售、政务、出行等众多领域。原文出处:腾讯云上线DeepSeek-V3.1模型API,智能体开发平台和 TI 平台同步上线,感谢原作者,侵权必删!