本地部署AI大模型(Deepseek等)如何选择推理软件和方案:UpHub AI、Ollama、llama.cpp、vLLM?
本地部署AI大模型推理主要软件和方案有: UpHub AI:AI推理管理平台(中间件级别),后端可以对接turnllm(turnllama.cpp和turnllm.python)、vLLM或自定义推理服务等推理平台。主要特性:支持CPU推理、支持GPU推理、支持CPU和GPU混合推理;支持4层高并发架构(物理服务器层、进程层、线程层、Batch模拟并发等);具有分布式部署和管理能力;可进行高可用、高并发部署方案。其它的人:ollama、llama.cpp、vLLM。