03-Windows 本地部署 llama.cpp
原创2025年3月9日大约 2 分钟...约 637 字
1. 获取代码
git clone https://github.com/ggml-org/llama.cpp
cd llama.cpp
2. CPU 构建
使用CMake
构建 llama.cpp:
cmake -B build
cmake --build build --config Release
注意:你需要正确安装 Visual Studio Installer 中的生成工具,如果构建失败或者其它问题,需要重装“生成工具”或尝试“修复”。
实际截图


修复命令
- 快速修复方法:
cmake -B build -G "Visual Studio 17 2022"
; - ⚠️ 注意:
"Visual Studio 17 2022"
表示你使用的是 Visual Studio 2022,如使用的是 Visual Studio 2019,改为:cmake -B build -G "Visual Studio 16 2019"
; - 如果是失败重新操作,请删除之前构建的文件夹 build。
📌 安装 Visual Studio 安装
- 确认安装时选择了
桌面开发(C++)
组件。 - 如果未安装,可以通过 Visual Studio Installer 补装:
- 打开 Visual Studio Installer;
- 点击“已安装”;
- 点击“修改”;
- 勾选 「使用C++的桌面开发」 选项;
3. 下载大模型 gguf
自己去查找自己要下载的大模型,例如:https://huggingface.co/matrixportal/Llama-2-7b-chat-hf-Q4_K_M-GGUF
git clone git@hf.co:matrixportal/Llama-2-7b-chat-hf-Q4_K_M-GGUF
4. 运行大模型
huangjiabao@HUANGJIABAO D:\Coder\LargeModels\llama.cpp\build\bin\Release>.\llama-cli.exe -m ..\..\..\..\models\Llama-2-7b-chat-hf-Q4_K_M-GGUF\llama-2-7b-chat-hf-q4_k_m.gguf
- 使用 llama-cli:
llama.cpp\build\bin\Release
中的\llama-cli.exe
- gguf 模型路径:
..\..\..\..\models\Llama-2-7b-chat-hf-Q4_K_M-GGUF\llama-2-7b-chat-hf-q4_k_m.gguf
欢迎关注我公众号:AI悦创,有更多更好玩的等你发现!
公众号:AI悦创【二维码】

AI悦创·编程一对一
AI悦创·推出辅导班啦,包括「Python 语言辅导班、C++ 辅导班、java 辅导班、算法/数据结构辅导班、少儿编程、pygame 游戏开发」,全部都是一对一教学:一对一辅导 + 一对一答疑 + 布置作业 + 项目实践等。当然,还有线下线上摄影课程、Photoshop、Premiere 一对一教学、QQ、微信在线,随时响应!微信:Jiabcdefh
C++ 信息奥赛题解,长期更新!长期招收一对一中小学信息奥赛集训,莆田、厦门地区有机会线下上门,其他地区线上。微信:Jiabcdefh
方法一:QQ
方法二:微信:Jiabcdefh
