不用GPU(纯CPU)在UpHub AI中运行DeepSeek-R1 7B、8B版本

我们现在以在普通CPU上,在没有GPU的情况下如何运行Deepseek-R1 7B版本。通常运行大模型的步骤:(1)准备硬件环境;(2)安装推理方案的程序(比如:UpHub AI);(3) 下载大模型权重文件(比如从:modelscope、Huggingface等仓库中下载);(4) 运行大模型;(5) 输入问题,即可。

安装好UpHub AI,是不是想马上在自己的电脑上运行一个大模型试试呢?

好吧,我们现在以在普通CPU上,在没有GPU的情况下如何运行Deepseek-R1 7B版本。

通常运行大模型的步骤:(1)准备硬件环境;(2)安装推理方案的程序(比如:UpHub AI);(3) 下载大模型权重文件(比如从:modelscope、Huggingface等仓库中下载);(4) 运行大模型;(5) 输入问题,即可。

现在我们来到了下载大模型的步骤,在UpHub AI中下载大模型,可以有两种方式,一种是在模型网站上手动下载投放到models目录中即可,另一种是能通过辅助下载程序,输入网址系统自动下载,下载完成后,即可运行大模型。

 

UpHub AI个人版支持gguf量化格式的大模型。

比如:DeepSeek-R1-Distill-Qwen-7B-GGUF,可以通过以下网址进行下载:

 

DeepSeek-R1-Distill-Qwen-7B版:

https://www.modelscope.cn/models/lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF

 

DeepSeek-R1-Distill-Llama-8B版

https://www.modelscope.cn/models/lmstudio-community/DeepSeek-R1-Distill-Llama-8B-GGUF

 

下载本地大模型部署推理软件UpHub AI,请点击这里

 

在UpHub AI中,只要输入上述网址,点击下载即可。

等待下载完成,这要看您的网速,这个文件有好几GB。

 

 

下载好后,在M管理中(模型管理),选择它,点击运行即可。

 

大模型一旦启动,在对话框的模型列表中就可以选择它,然后向它提问了。

选择Deepseek大模型

选择模型

 

输入提问

和AI对话

在Deepseek-r1 8B版本中对话

Deepseek-R1-8B对话,5.8 tokens/s

UpHub AI中运行Deepseek大模型,关闭思考过程

本例和Deepseek 8B对话 5.8 tokens/s,还可以关闭Deepseek思考过程

在UpHub AI中使用Deepseek编写一个冒泡排序程序

电话图标 点我咨询
欢迎申请演示试用或远程演示、介绍

您提交的信息仅用于需求、演示试用和购买沟通
本公司不会群发广告和垃圾短信。

发送验证码
提交