CVE-2026-33298

llama.cpp is an inference of several LLM models in C/C++. Prior to b7824, an integer overflow vulnerability in the `ggml_nbytes` function allows an attacker to bypass memory validation by crafting a GGUF file with specific tensor dimensions. This causes `ggml_nbytes` to return a significantly smaller size than required (e.g., 4MB instead of Exabytes), leading to a heap-based buffer overflow when the application subsequently processes the tensor. This vulnerability allows potential Remote Code Execution (RCE) via memory corruption. b7824 contains a fix.
Configurations

Configuration 1 (hide)

cpe:2.3:a:ggml:llama.cpp:*:*:*:*:*:*:*:*

History

30 Apr 2026, 17:01

Type Values Removed Values Added
First Time Ggml
Ggml llama.cpp
CPE cpe:2.3:a:ggml:llama.cpp:*:*:*:*:*:*:*:*
References () https://github.com/ggml-org/llama.cpp/releases/tag/b7824 - () https://github.com/ggml-org/llama.cpp/releases/tag/b7824 - Release Notes
References () https://github.com/ggml-org/llama.cpp/security/advisories/GHSA-96jg-mvhq-q7q7 - () https://github.com/ggml-org/llama.cpp/security/advisories/GHSA-96jg-mvhq-q7q7 - Exploit, Vendor Advisory
Summary
  • (es) llama.cpp es una inferencia de varios modelos LLM en C/C++. Antes de b7824, una vulnerabilidad de desbordamiento de entero en la función `ggml_nbytes` permite a un atacante eludir la validación de memoria al crear un archivo GGUF con dimensiones de tensor específicas. Esto hace que `ggml_nbytes` devuelva un tamaño significativamente menor al requerido (por ejemplo, 4MB en lugar de Exabytes), lo que lleva a un desbordamiento de búfer basado en montículo cuando la aplicación procesa posteriormente el tensor. Esta vulnerabilidad permite una posible ejecución remota de código (RCE) a través de corrupción de memoria. b7824 contiene una corrección.

24 Mar 2026, 01:17

Type Values Removed Values Added
New CVE

Information

Published : 2026-03-24 01:17

Updated : 2026-04-30 17:01


NVD link : CVE-2026-33298

Mitre link : CVE-2026-33298

CVE.ORG link : CVE-2026-33298


JSON object : View

Products Affected

ggml

  • llama.cpp
CWE
CWE-122

Heap-based Buffer Overflow

CWE-190

Integer Overflow or Wraparound