近期,DeepSeek凭借其高效性、准确性、易集成等优势,成为医疗信息化领域开年首个热议话题。在此背景下医院该如何快速完成DeepSeek 本地部署、布局AI,提升医院综合竞争力,成为医院CIO们重点关注的内容之一。

以下是本地电脑部署DeepSeek的实战教程,使用Ollama和Chatbox工具,步骤详细易懂,每一步骤都有图片和说明,适合新手参考。

其中,所用软件Ollama是运行DeepSeek模型的引擎,Chatbox是聊天界面(可选项)。

可以选择下载DeepSeek R1(推理模型)、DeepSeek V2.5、DeepSeek V3(通用模型),或者DeepSeek Coder(代码模型)等模型在本地运行。

其实,本地电脑没有显卡也可以部署和运行DeepSeek,就是说只有CPU,没有显存仅使用内存,也可以正常运行!

    Windows/macOS/Linux系统处理器要求:近5年的多核CPU(如Intel i5/Ryzen 5及以上)内存建议≥8GB(模型越大需要内存越多),推荐32GB硬盘空间≥5GB(存放模型文件)

笔者使用的是一台配置非常低的笔记本电脑,Windows11系统,没有显卡和显存,内存16G:

处理器 13th Gen Intel(R)Core(TM) i5-13500H 2.60 GHz

RAM 16.0GB(15.7 GB可用)

系统类型 64位操作系统,基于x64的处理器

就这样低配置的笔记本电脑,实测也可以流畅运行DeepSeek各模型的 7b 以上的版本。

虽然DeepSeek对本地部署的硬件要求不高,但是,本地电脑硬件配置肯定无法和DeepSeek服务器相比,都会有不同程度的「降智」现象。要使用「满血」DeepSeek功能,还是建议优先选择完全免费的App版、网页版(

https://chat.deepseek.com/)。

第一步:下载和安装 Ollama,这是DeepSeek本地部署、运行和管理工具

1、下载Ollama安装文件

Ollama官方下载网址:

https://ollama.com/download

首先通过Ollama官网下载的安装文件,如果下载不了,也可以在Ollama官方GitHub仓库下载网址:

https://github.com/ollama/ollama/releases/download/v0.5.8-rc7/OllamaSetup.exe

2、安装Ollama

双击下载的安装包,开始安装Ollama。

安装完毕会自动运行,在Windows电脑桌面右下角状态栏中,显示Ollama图标。

安装后如果自动打开了命令提示符窗口,不要关闭,如果没有自动打开也没关系,先继续下一步骤。

第二步:选择要部署的DeepSeek模型并下载

1、选择DeepSeek模型:

Ollama官网DeepSeek模型库网址:

https://ollama.com/search?q=DeepSeek

在Ollama官网模型库中,有以下DeepSeek模型和版本型号可以选择:

DeepSeek R1:推理模型,版本1.5b、7b到671b共七个。

DeepSeek Coder:代码模型,版本1.3b、6.7b、33b。

DeepSeek V2.5、DeepSeek V3:通用模型,版本分别有236b、671b。

各模型的版本,参数量越大,模型功能也越强大,但也需要更多的计算资源。

笔者的笔记本硬件配置太低,因此先选择了DeepSeek r2推理模型的1.5b版本。如果你的电脑有显卡,建议选择 7b 或 32b 以上的版本。

在电脑硬件配置能够支持在本地正常运行 DeepSeek 的情况下,建议优先选择更大的版本进行下载。模型版本越大,DeepSeek越智能,用户体验也会越好。

2、获取模型下载执行命令代码

需要在Windows系统的「命令提示符」窗口,或者「终端(PowerShell)」窗口内,执行命令来下载DeepSeek模型,因此需要获取各个模型不同版本的下载命令执行代码。

在前图的Ollama模型页面中,点击需要部署的DeepSeek r1模型(根据所需和电脑硬件条件选择),点击下拉菜单,选择模型版本,再复制后面命令框中的下载执行命令,如下图所示:

提示:经实测发现,不要选择1.5b版本,降智严重,我这台笔记本电脑,没有显卡,没有显存,就只有16G内存,运行7b版本也非常流畅,所以建议直接从 32b 版本起步。

3、在命令提示符窗口,或者终端

(Windows PowerShell)窗口中执行下载命令

「命令提示符」窗口打开方式:按快捷键「Win+R」,输入cmd,按确定键打开命令行窗口。

「终端」窗口打开方式:右键点击Win系统左下角的「开始」图标,选择「终端」或「终端管理员」打开。

将前面复制的下载/运行命令ollama run deepseek-r1:1.5b,建议下载7b或以上版本,下载命令ollama run deepseek-r1:7b ,粘贴进去,按确定键执行:

各模型、版本型号下载/运行命令:

DeepSeek R1 推理模型:

DeepSeek-R1-Distill-Qwen-1.5b:ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7b:ollama run deepseek-r1:7b

DeepSeek-R1-Distill-lalama-8b:ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14b:ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32b:ollama run deepseek-r1:32b

DeepSeek-R1-Distill-lalama-70b:ollama run deepseek-r1:70b

DeepSeek Coder 代码模型:

1.3 billion parameter model:ollama run deepseek-coder

6.7 billion parameter model:ollama run deepseek-coder:6.7b

33 billion parameter model:ollama run deepseek-coder:33b

DeepSeek V2.5 通用模型:已升级到下面的V3,建议直接部署V3。

DeepSeek V3 通用模型:

DeepSeek-V3-671b:ollama run deepseek-v3

很快,下载完毕会自动加载,完成后,看到>>> Send a message...,意思是启动成功,可以发送消息了:

第三步:本地运行DeepSeek,测试本地部署是否成功

测试一下是否可以正常与DeepSeek对话:

虽然能正常对话,但是由于模型版本为1.5b,所以虽然下载的是DeepSeek r1推理模型,也没有思考过程。

提示:将来需要本地运行DeepSeek时,也需要首先启动Ollama软件,再在命令提示符窗口,或者终端(Windows PowerShell)窗口执行上面的命令,下载和运行命令是相同的。

到这里,DeepSeek本地电脑部署成功了,如果不介意界面,也可以直接通过命令提示符窗口,或者终端(Windows PowerShell)窗口与DeepSeek对话。

后续可以安装Chatbox软件,来优化与DeepSeek的对话界面。返回搜狐,查看更多