本地部署AI大模型 - 个人免费版 - Windows(64位) - GPU- CUDA12.8版

下载个人免费版(CUDA) Windows 64位 CUDA版

运行量化版大模型,下载前检查运行环境和前提:

如何查看:windows系统:开始菜单——点击设置(齿轮图标)——点击“系统”(第一个)——点击“关于”。

 

操作系统:Windows 10、Windows 11、Windows Server 2022、Windows Server 2025;

系统版本:x64 (64位),(intel、AMD)x86架构(注意:暂不支持arm);

CUDA版本CUDA 12.8 (GPU版,务必先安装CUDA12.8);CUDA12.8下载地址:

                          https://developer.nvidia.com/cuda-12-8-1-download-archive?target_os=Windows&target_arch=x86_64

nvidia-smi查看版本

安装好后,使用nvidia-smi命令查看版本信息(务必存在后,再安装本软件,否则无法运行)

物理内存:16GB及以上,DDR4及以上,推荐32GB内存以上,不同模型参数要求不同,单并发建议内存如下:

  1.  2B以下,建议 16GB以上内存(比如部署Deepseek 1.5B),GPU:8GB;
  2. 3B-6B,建议32GB以上内存(比如部署Gemma 3 4B),上下文按4K(4096)计算,上下文增加,内存需要对应成倍增加,GPU: 120GB;
  3. 6B-10B,建议64GB以上内存(比如部署Deepseek 7B , 8B),上下文按4K(4096)计算,上下文增加,内存需要对应成倍增加,GPU:16GB;
  4. 10B-15B,建议96GB以上内存(比如部署Deepseek 14B, Gemma3 12B),上下文按4K(4096)计算,上下文增加,内存需要对应成倍增加,GPU: 24GB;
  5. 32B,建议128GB以上内存(比如部署Deepseek 32B),上下文按4K(4096)计算,上下文增加,内存需要对应成倍增加,GPU: 160GB;
  6. 70B,建议256GB内存(比如部署Deepseek 70B),上下文按4K(4096)计算,上下文增加,内存需要对应成倍增加,GPU: 240GB;

CPU核心数1.5B 建议 4核心及以上(intel i5);2B以上,比如:4B、7B,8B 建议 8核心以上(intel i7);8B以上,建议 12核心以上(推荐20核以上, i9-14900K等),32B: 20核心以上;70B:建议至强金牌20核48线程以上处理器。越多越快。

 

GPU内存建议:GPU内存根据模型和量化版本不同,有所不同,一般7B以下:8GB,7B-14B: 16-24GB(仅供参考建议,实际所需内容与模型推理方式、模型加载的上下文、推理上下文等正相关),实际占用可能与上下文、offload层数等有关。

 

本参数为运行量化版Q4_K_M的推荐参数。个人版基本够用。本版本为CPU+GPU(CUDA12.8)本地部署推理AI。如果有GPU,可以进行多模态推理(比如图片描述)。

 

安装视频教程:https://www.zhetao.com/content1606.html

如果您没有英伟达GPU,可下载纯CPU版(点击这里查看安装要求和下载):https://www.zhetao.com/content1599.html

 

重要提示:下载安装包正式发布,请点击下方按钮下载。在安装过程中遇到问题,请在线客服留言。谢谢。

 

 

下载个人免费版(CUDA) Windows 64位 CUDA版
电话图标 点我咨询
欢迎申请演示试用或远程演示、介绍

您提交的信息仅用于需求、演示试用和购买沟通
本公司不会群发广告和垃圾短信。

发送验证码
提交