不用GPU(纯CPU)在UpHub AI中运行DeepSeek-R1 7B、8B版本
我们现在以在普通CPU上,在没有GPU的情况下如何运行Deepseek-R1 7B版本。通常运行大模型的步骤:(1)准备硬件环境;(2)安装推理方案的程序(比如:UpHub AI);(3) 下载大模型权重文件(比如从:modelscope、Huggingface等仓库中下载);(4) 运行大模型;(5) 输入问题,即可。
我们现在以在普通CPU上,在没有GPU的情况下如何运行Deepseek-R1 7B版本。通常运行大模型的步骤:(1)准备硬件环境;(2)安装推理方案的程序(比如:UpHub AI);(3) 下载大模型权重文件(比如从:modelscope、Huggingface等仓库中下载);(4) 运行大模型;(5) 输入问题,即可。
安装好UpHub AI,是不是想马上在自己的电脑上运行一个大模型试试呢?
好吧,我们现在以在普通CPU上,在没有GPU的情况下如何运行Deepseek-R1 7B版本。
通常运行大模型的步骤:(1)准备硬件环境;(2)安装推理方案的程序(比如:UpHub AI);(3) 下载大模型权重文件(比如从:modelscope、Huggingface等仓库中下载);(4) 运行大模型;(5) 输入问题,即可。
现在我们来到了下载大模型的步骤,在UpHub AI中下载大模型,可以有两种方式,一种是在模型网站上手动下载投放到models目录中即可,另一种是能通过辅助下载程序,输入网址系统自动下载,下载完成后,即可运行大模型。
UpHub AI个人版支持gguf量化格式的大模型。
比如:DeepSeek-R1-Distill-Qwen-7B-GGUF,可以通过以下网址进行下载:
DeepSeek-R1-Distill-Qwen-7B版:
https://www.modelscope.cn/models/lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF
DeepSeek-R1-Distill-Llama-8B版:
https://www.modelscope.cn/models/lmstudio-community/DeepSeek-R1-Distill-Llama-8B-GGUF
在UpHub AI中,只要输入上述网址,点击下载即可。
等待下载完成,这要看您的网速,这个文件有好几GB。
下载好后,在M管理中(模型管理),选择它,点击运行即可。
大模型一旦启动,在对话框的模型列表中就可以选择它,然后向它提问了。
选择模型
和AI对话
Deepseek-R1-8B对话,5.8 tokens/s
本例和Deepseek 8B对话 5.8 tokens/s,还可以关闭Deepseek思考过程