近期,DeepSeek凭借其高效性、准确性、易集成等优势,成为医疗信息化领域开年首个热议话题。在此背景下医院该如何快速完成DeepSeek 本地部署、布局AI,提升医院综合竞争力,成为医院CIO们重点关注的内容之一。
以下是本地电脑部署DeepSeek的实战教程,使用Ollama和Chatbox工具,步骤详细易懂,每一步骤都有图片和说明,适合新手参考。
其中,所用软件Ollama是运行DeepSeek模型的引擎,Chatbox是聊天界面(可选项)。
可以选择下载DeepSeek R1(推理模型)、DeepSeek V2.5、DeepSeek V3(通用模型),或者DeepSeek Coder(代码模型)等模型在本地运行。
其实,本地电脑没有显卡也可以部署和运行DeepSeek,就是说只有CPU,没有显存仅使用内存,也可以正常运行!
- Windows/macOS/Linux系统处理器要求:近5年的多核CPU(如Intel i5/Ryzen 5及以上)内存建议≥8GB(模型越大需要内存越多),推荐32GB硬盘空间≥5GB(存放模型文件)
笔者使用的是一台配置非常低的笔记本电脑,Windows11系统,没有显卡和显存,内存16G:
处理器 13th Gen Intel(R)Core(TM) i5-13500H 2.60 GHz
RAM 16.0GB(15.7 GB可用)
系统类型 64位操作系统,基于x64的处理器
就这样低配置的笔记本电脑,实测也可以流畅运行DeepSeek各模型的 7b 以上的版本。
虽然DeepSeek对本地部署的硬件要求不高,但是,本地电脑硬件配置肯定无法和DeepSeek服务器相比,都会有不同程度的「降智」现象。要使用「满血」DeepSeek功能,还是建议优先选择完全免费的App版、网页版(
https://chat.deepseek.com/)。
第一步:下载和安装 Ollama,这是DeepSeek本地部署、运行和管理工具1、下载Ollama安装文件
Ollama官方下载网址:
https://ollama.com/download
首先通过Ollama官网下载的安装文件,如果下载不了,也可以在Ollama官方GitHub仓库下载网址:
https://github.com/ollama/ollama/releases/download/v0.5.8-rc7/OllamaSetup.exe
2、安装Ollama
双击下载的安装包,开始安装Ollama。
安装完毕会自动运行,在Windows电脑桌面右下角状态栏中,显示Ollama图标。
安装后如果自动打开了命令提示符窗口,不要关闭,如果没有自动打开也没关系,先继续下一步骤。
第二步:选择要部署的DeepSeek模型并下载1、选择DeepSeek模型:
Ollama官网DeepSeek模型库网址:
https://ollama.com/search?q=DeepSeek
在Ollama官网模型库中,有以下DeepSeek模型和版本型号可以选择:
DeepSeek R1:推理模型,版本1.5b、7b到671b共七个。
DeepSeek Coder:代码模型,版本1.3b、6.7b、33b。
DeepSeek V2.5、DeepSeek V3:通用模型,版本分别有236b、671b。
各模型的版本,参数量越大,模型功能也越强大,但也需要更多的计算资源。
笔者的笔记本硬件配置太低,因此先选择了DeepSeek r2推理模型的1.5b版本。如果你的电脑有显卡,建议选择 7b 或 32b 以上的版本。
在电脑硬件配置能够支持在本地正常运行 DeepSeek 的情况下,建议优先选择更大的版本进行下载。模型版本越大,DeepSeek越智能,用户体验也会越好。
2、获取模型下载执行命令代码
需要在Windows系统的「命令提示符」窗口,或者「终端(PowerShell)」窗口内,执行命令来下载DeepSeek模型,因此需要获取各个模型不同版本的下载命令执行代码。
在前图的Ollama模型页面中,点击需要部署的DeepSeek r1模型(根据所需和电脑硬件条件选择),点击下拉菜单,选择模型版本,再复制后面命令框中的下载执行命令,如下图所示:
提示:经实测发现,不要选择1.5b版本,降智严重,我这台笔记本电脑,没有显卡,没有显存,就只有16G内存,运行7b版本也非常流畅,所以建议直接从 32b 版本起步。
3、在命令提示符窗口,或者终端
(Windows PowerShell)窗口中执行下载命令
「命令提示符」窗口打开方式:按快捷键「Win+R」,输入cmd,按确定键打开命令行窗口。
「终端」窗口打开方式:右键点击Win系统左下角的「开始」图标,选择「终端」或「终端管理员」打开。
将前面复制的下载/运行命令ollama run deepseek-r1:1.5b,建议下载7b或以上版本,下载命令ollama run deepseek-r1:7b ,粘贴进去,按确定键执行:
各模型、版本型号下载/运行命令:
DeepSeek R1 推理模型:
DeepSeek-R1-Distill-Qwen-1.5b:ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7b:ollama run deepseek-r1:7b
DeepSeek-R1-Distill-lalama-8b:ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14b:ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32b:ollama run deepseek-r1:32b
DeepSeek-R1-Distill-lalama-70b:ollama run deepseek-r1:70b
DeepSeek Coder 代码模型:
1.3 billion parameter model:ollama run deepseek-coder
6.7 billion parameter model:ollama run deepseek-coder:6.7b
33 billion parameter model:ollama run deepseek-coder:33b
DeepSeek V2.5 通用模型:已升级到下面的V3,建议直接部署V3。
DeepSeek V3 通用模型:
DeepSeek-V3-671b:ollama run deepseek-v3
很快,下载完毕会自动加载,完成后,看到>>> Send a message...,意思是启动成功,可以发送消息了:
测试一下是否可以正常与DeepSeek对话:
虽然能正常对话,但是由于模型版本为1.5b,所以虽然下载的是DeepSeek r1推理模型,也没有思考过程。
提示:将来需要本地运行DeepSeek时,也需要首先启动Ollama软件,再在命令提示符窗口,或者终端(Windows PowerShell)窗口执行上面的命令,下载和运行命令是相同的。
到这里,DeepSeek本地电脑部署成功了,如果不介意界面,也可以直接通过命令提示符窗口,或者终端(Windows PowerShell)窗口与DeepSeek对话。
后续可以安装Chatbox软件,来优化与DeepSeek的对话界面。返回搜狐,查看更多