CVE-2026-27940

llama.cpp is an inference of several LLM models in C/C++. Prior to b8146, the gguf_init_from_file_impl() in gguf.cpp is vulnerable to an Integer overflow, leading to an undersized heap allocation. Using the subsequent fread() writes 528+ bytes of attacker-controlled data past the buffer boundary. This is a bypass of a similar bug in the same file - CVE-2025-53630, but the fix overlooked some areas. This vulnerability is fixed in b8146.
Configurations

Configuration 1 (hide)

cpe:2.3:a:ggml:llama.cpp:*:*:*:*:*:*:*:*

History

28 Apr 2026, 21:27

Type Values Removed Values Added
First Time Ggml
Ggml llama.cpp
CPE cpe:2.3:a:ggml:llama.cpp:*:*:*:*:*:*:*:*
References () https://github.com/ggml-org/llama.cpp/security/advisories/GHSA-3p4r-fq3f-q74v - () https://github.com/ggml-org/llama.cpp/security/advisories/GHSA-3p4r-fq3f-q74v - Exploit, Vendor Advisory
Summary
  • (es) llama.cpp es una inferencia de varios modelos LLM en C/C++. Antes de b8146, la gguf_init_from_file_impl() en gguf.cpp es vulnerable a un desbordamiento de entero, lo que lleva a una asignación de memoria heap de tamaño insuficiente. El uso de la posterior fread() escribe más de 528 bytes de datos controlados por el atacante más allá del límite del búfer. Esto es un bypass de un error similar en el mismo archivo - CVE-2025-53630, pero la corrección pasó por alto algunas áreas. Esta vulnerabilidad está corregida en b8146.

12 Mar 2026, 17:16

Type Values Removed Values Added
New CVE

Information

Published : 2026-03-12 17:16

Updated : 2026-04-28 21:27


NVD link : CVE-2026-27940

Mitre link : CVE-2026-27940

CVE.ORG link : CVE-2026-27940


JSON object : View

Products Affected

ggml

  • llama.cpp
CWE
CWE-122

Heap-based Buffer Overflow

CWE-190

Integer Overflow or Wraparound