使用UpHub AI在纯CPU上运行Gemma3 12B(4B)大模型进行对话

在普通CPU上,在没有GPU的情况下如何运行Gemma3 12B版本。通常运行大模型的步骤:(1)准备硬件环境;(2)安装推理方案的程序(比如:UpHub AI);(3) 下载大模型权重文件(比如从:modelscope、Huggingface等仓库中下载);(4) 运行大模型;(5) 输入问题,即可。

安装好UpHub AI,是不是想马上在自己的电脑上运行一个大模型试试呢?

好吧,我们现在以在普通CPU上,在没有GPU的情况下如何运行Gemma3 12B版本。

通常运行大模型的步骤:(1)准备硬件环境;(2)安装推理方案的程序(比如:UpHub AI);(3) 下载大模型权重文件(比如从:modelscope、Huggingface等仓库中下载);(4) 运行大模型;(5) 输入问题,即可。

现在我们来到了下载大模型的步骤,在UpHub AI中下载大模型,可以有两种方式,一种是在模型网站上手动下载投放到models目录中即可,另一种是能通过辅助下载程序,输入网址系统自动下载,下载完成后,即可运行大模型。

 

UpHub AI个人版支持gguf量化格式的大模型。

比如:gemma-3-12b-it-GGUF,可以通过以下网址进行下载:

 

gemma-3-12b-it-GGUF版(至少64GB内存,M2固态硬盘):

https://www.modelscope.cn/models/lmstudio-community/gemma-3-12b-it-GGUF

 

gemma-3-4b-it-GGUF版 (配置低的可选择4B版本)

https://www.modelscope.cn/models/lmstudio-community/gemma-3-4b-it-GGUF

 

 

下载本地大模型部署推理软件UpHub AI,请点击这里

 

 

在UpHub AI中,只要输入上述网址,点击下载即可。

UpHub 中辅助下载Gemma3 12B

等待下载完成,这要看您的网速,这个文件有好几GB。

 

 

下载好后,在M管理中(模型管理),选择它,点击运行即可。

 

大模型一旦启动,在对话框的模型列表中就可以选择它,然后向它提问了。

UpHub中选择模型然后对话

选择模型

 

UpHub AI对话

和AI对话

和AI对话,Gemma3 12B

本例和Gemma3 12B对话 3.6 tokens/s

电话图标 点我咨询
欢迎申请演示试用或远程演示、介绍

您提交的信息仅用于需求、演示试用和购买沟通
本公司不会群发广告和垃圾短信。

发送验证码
提交