服务热线

61900099

建议信箱

xjzx@shou.edu.cn

关于 llama.cpp 远程代码执行漏洞的风险提示

发布时间:2026-04-29浏览次数:12
字体大小选择:

一、背景介绍


近日监测到 llama.cpp 远程代码执行漏洞(CVE-2026-34159),目前该漏洞 PoC 和技术细节已公开。鉴于该漏洞影响范围较大,建议尽快做好自查及防护。


1.1漏洞描述


llama.cpp 是一款由 GGML 社区开发的高性能 C/C++ 大语言模型推理引擎,支持LLaMA、Falcon、Mistral 等数十种主流开源 LLM的本地与分布式部署,通过轻量级 RPC 架构实现多节点分布式推理、负载均衡与模型并行计算,广泛应用于 AI 私有化部署、边缘计算、科研实验与企业级 LLM 服务场景。


该漏洞源于 RPC 后端的 deserialize_tensor() 函数,在处理 GRAPH_COMPUTE 消息时,当tensor 的 buffer 字段为 0 时会完全跳过所有边界和有效性验证,导致攻击者可直接控制result->data 指针。攻击者可结合 ALLOC_BUFFER 和 BUFFER_GET_BASE 消息实现指针泄露,绕过 ASLR,最终通过构造 GRAPH_COMPUTE 消息实现任意内存读写,并通过函数指针劫持(如覆盖 iface.clear 为system())达成远程代码执行。


1.2漏洞编号


CVE-2026-34159


1.3漏洞等级


高危


二、修复建议


2.1受影响的版本


llama.cpp < b8492


2.2修复建议


官方已发布安全补丁,请及时更新至最新版本:


llama.cpp >= b8492


下载地址:


https://github.com/ggml-org/llama.cpp/commit/39bf0d3c6a95803e0f41aaba069ffbee26721042




请各单位高度关注,若有使用老版本llama.cpp的师生,请尽快下载安全补丁。