当前位置:首页 > DeepSeek技术交流 > 正文内容

DeepSeek 本地安装指南(电脑版完整版)

9小时前DeepSeek技术交流28

在当今数字化时代,人工智能技术蓬勃发展,大语言模型如 DeepSeek 展现出了强大的能力,能够为我们在工作、学习等诸多场景提供高效的帮助。对于一些对数据隐私有较高要求,或者希望在本地环境中充分利用硬件资源,实现更个性化、高效的模型应用的用户来说,将 DeepSeek 安装在本地电脑上是一个不错的选择。下面就为大家详细介绍在电脑上本地安装 DeepSeek 的完整流程。

一、安装前准备

(一)系统要求

MacOS:无论是 Intel 芯片还是 Apple silicon 芯片的 Mac 电脑均可支持。建议将系统更新至最新版本,以确保系统具备良好的稳定性和兼容性,为后续安装和运行 DeepSeek 提供可靠的基础。

Linux:支持 x86_64 或 arm64 架构。Ubuntu 24.04 是较为推荐的发行版,其他主流发行版理论上也可尝试安装,但可能需要根据实际情况对依赖进行额外的调整。

Windows:借助 Windows Subsystem for Linux (WSL 2),Windows 10 及以上版本的系统可开启此功能。开启后,系统环境近似于在 Linux 环境下操作,方便后续进行安装相关的命令行操作。

(二)硬件要求

内存:最低需要 8GB 内存。然而,若想在使用 DeepSeek 时获得较为流畅的体验,建议配备 16GB 及以上的内存。尤其是在运行大型模型时,更大的内存能够有效减少卡顿现象,保证模型运行的稳定性。

存储:准备至少 10GB 的空闲空间,用于存放 DeepSeek 的模型文件。如果后续计划进行模型训练或处理大量数据,建议预留更多的存储空间,以满足不断增长的数据存储需求。

GPU:虽然并非必需硬件,但如果电脑配备了兼容的 GPU(如 NVIDIA 的部分型号),将能够大幅提升模型的推理速度。在处理复杂任务时,GPU 的并行计算能力优势将尤为明显,显著提高模型的运行效率。

(三)软件要求

终端工具:MacOS 和 Linux 系统自带终端,可直接用于执行命令。对于 Windows 系统使用 WSL 2 的情况,可在 “开始菜单” 中搜索安装的 Linux 发行版(如 “Ubuntu”)来启动终端,也可以通过 PowerShell 开启 WSL 2 环境。

基础工具:需要安装 Python 3.10 及以上版本,在安装过程中务必勾选 “Add Python to PATH” 选项,这样可以确保在系统的任何路径下都能方便地调用 Python。同时,确保系统中安装了 pip(Python 包管理工具,一般会随 Python 安装)和 Git(用于代码管理和获取资源)。

二、使用 Ollama 安装 DeepSeek

Ollama 是一个简便易用的工具,可帮助我们轻松在本地安装和管理大语言模型,下面介绍使用它安装 DeepSeek 的具体步骤。

(一)安装 Ollama

MacOS 系统:访问 ollama.ai 官网,点击下载 MacOS 应用程序。下载完成后,在 “下载” 文件夹中找到 ollama.zip 文件,解压该文件,然后将解压得到的 Ollama 图标拖移至 “应用程序” 文件夹。打开 “应用程序” 中的 Ollama,按照系统提示授予相应权限,完成命令行工具的安装。

Linux/Ubuntu 24.04/WSL(Windows)系统:打开终端,运行安装脚本curl -fsSL https://ollama.com/install.sh | sh 。安装完成后,执行ollama serve 命令启动 Ollama 服务。在终端输入 ollama --version ,若显示版本号(例如 ollama version 0.1.25),则表明 Ollama 已成功安装。

(二)下载和安装 DeepSeek - R1

检查模型是否在 Ollama 默认库中:在终端运行ollama list 命令,查看列表中是否有 deepseek - R1 模型。若列表中存在该模型,直接运行 ollama pull deepseek - R1 命令进行下载。下载所需时间取决于网络速度,请耐心等待。

手动设置(模型不在默认库时):若在 Ollama 默认库中未找到 deepseek - R1 模型,可从 Hugging Face 或 DeepSeek 官方仓库获取 gguf 格式的 DeepSeek - R1 模型文件(例如 deepseek - R1.q4_k_m.gguf) 。将获取到的模型文件保存到指定文件夹(如~/models )。在同一文件夹中,创建一个名为 modelfile 的文件,文件内容为 from./deepseek - R1.q4_k_m.gguf (注意:需根据实际下载的模型文件名进行修改)。最后,在终端运行ollama create deepseek - R1 -f modelfile 命令完成模型构建。

(三)运行 DeepSeek - R1

在终端输入ollama run deepseek - R1 命令,即可启动与 DeepSeek - R1 模型的对话。例如,输入 >> write a Python function to calculate fibonacci numbers. ,模型会根据输入进行处理并给出相应回答。

(四)验证安装(可选)

运行ollama list 命令,确认列表中出现 deepseek - R1 模型,这表明模型已成功安装在本地。此外,还可以使用不同的示例提示对模型进行测试,观察模型的推理速度和回答质量,检查是否满足个人使用需求。

(五)在 Web UI 中运行 DeepSeek

运行ollama web 命令启动 Ollama 的 Web UI,在浏览器中打开相应网址(通常为http://localhost:11434 ),即可在图形界面中与 DeepSeek 进行交互。Web UI 提供了更为直观方便的操作方式,无需在命令行中输入指令,降低了使用门槛。

三、其他安装方式简介

若不想使用 Ollama 安装 DeepSeek,也可通过 Python&Hugging Face、Docker、llama.cpp 等方式进行安装,但这些方式的安装过程相对更为复杂。

Python&Hugging Face:需要先安装 Python 以及 Hugging Face 相关库,安装完成后,还需从 Hugging Face 平台下载 DeepSeek 模型。在安装和下载过程中,需要仔细配置各种参数和依赖,对用户的技术能力有一定要求。

Docker:首先要安装 Docker 引擎,安装完成后,需编写容器配置文件,通过配置文件来指定 DeepSeek 模型的相关参数和运行环境。这种方式虽然可以实现环境的隔离和统一部署,但配置过程较为繁琐。

llama.cpp:该方式侧重于在 CPU 上对模型进行优化运行。安装时需要编译代码,并且要根据 CPU 的性能和特点配置运行参数,以达到较好的运行效果。整个安装过程涉及到代码编译和参数调优,具有一定的技术难度。

四、安装后的优化与注意事项

(一)性能优化

硬件加速:若电脑配备了 NVIDIA GPU,安装 CUDA Toolkit 和 cuDNN 库可以实现 GPU 加速。根据 GPU 型号和系统版本,从 NVIDIA 官方网站下载并安装对应的 CUDA Toolkit 和 cuDNN 库版本,安装完成后,在运行 DeepSeek 时,模型将自动调用 GPU 资源,提升运行速度。

模型量化:使用量化版本的 DeepSeek 模型,如带有q4_k_m后缀的模型(如 deepseek - R1:7b - q4_k_m)。量化模型在保持一定精度的同时,能够大幅减少内存占用,对于内存资源有限的电脑来说,是提升模型运行效率的有效方法。

(二)注意事项

文件路径:在安装和配置过程中,涉及到的文件路径应尽量避免使用中文和空格,以免在命令行操作或程序运行时出现路径识别错误的问题。

版本兼容性:确保安装的各软件版本之间相互兼容,如 Python 版本、深度学习框架版本以及 DeepSeek 模型版本等。不兼容的版本可能导致程序运行出错或无法正常运行。在安装前,查阅相关文档或社区论坛,了解推荐的版本组合。

数据备份:如果在本地使用 DeepSeek 处理重要数据,建议定期对数据进行备份。防止因硬件故障、软件错误或其他意外情况导致数据丢失。

通过以上步骤和注意事项,相信你能够顺利在本地电脑上安装 DeepSeek,并根据自己的需求进行优化和使用。在安装过程中,若遇到问题,可查阅相关技术文档或在技术社区中寻求帮助。


“DeepSeek 本地安装指南(电脑版完整版)” 的相关文章

德国一机构要求苹果谷歌下架DeepSeek,中方多次表态:反对将经贸科技问题政治化

德国一机构要求苹果谷歌下架DeepSeek,中方多次表态:反对将经贸科技问题政治化

【环球时报驻德国特约记者 青木 环球时报记者 马晶晶】德国数据保护专员梅克·坎普27日要求苹果和谷歌在德下架中国初创公司的“深度求索”应用,理由是“DeepSeek涉嫌违反欧盟数据保护法”。资料图 (...

DeepSeek掉队了?

DeepSeek掉队了?

好的,我会尝试以更口语化、接地气的方式改写这篇。改写版最近看到一篇报道,深入剖析了DeepSeek上市半年来的表现。怎么说呢,DeepSeek可以说是出道即巅峰,但随后却有些高开低走的意思。为了降低成...

泰格医药:已完成DeepSeek-R1本地化部署并打造医雅AI大模型平台

泰格医药:已完成DeepSeek-R1本地化部署并打造医雅AI大模型平台

金融界7月18日消息,有投资者在互动平台向泰格医药提问:随着Ai技术的不断发展,公司在医疗Ai方面有哪些积极的投入布局?公司回答表示:投资者您好,公司将数字化、智能化技术的开发与应用作为自身发展的重要...

deepseek好用吗?为什么总是显示服务器繁忙?

deepseek好用吗?为什么总是显示服务器繁忙?

我也正在学习研究Deepseek, 我觉得挺好用的。服务器繁忙可能是使用的人太多了吧Deepseek 不但和其他AI一样见多识广,各个学科领域它都很懂,而且它自己是多个领域专家的结合体,当你对它提问时...

DeepSeek实用操作指南:从入门到精通的效率革命

DeepSeek实用操作指南:从入门到精通的效率革命

你是否经常被海量信息淹没?是否羡慕那些用AI工具十分钟搞定一天工作的大神?今天,我们将揭开DeepSeek的神秘面纱,这款被称为"认知增强外接大脑"的智能工具,正重新定义人机协作的...

如何看待养生?DeepSeek的回答丰富深化了我的认识

如何看待养生?DeepSeek的回答丰富深化了我的认识

昨天就聆听专家一节健康科普,整理出《纠正三伏天晒背、苹果煮水养生误区学习笔记》,并跟三五好友作了私下分享。友人纷纷作了反馈,其中一位忘年交发来的留言,让我陷入了深深的思考。他说:“养生不仅是一个现代生...