| Title | ggml.aiのllama.cppにおける複数の脆弱性 |
|---|---|
| Summary | llama.cppはC/C++で複数の大規模言語モデル(LLM)の推論を行うソフトウェアです。b7824以前のバージョンでは、`ggml_nbytes`関数に整数オーバーフローの脆弱性が存在し、攻撃者が特定のテンソルの次元を持つGGUFファイルを作成することでメモリ検証を回避できます。これにより`ggml_nbytes`は必要なサイズよりもはるかに小さい値(例えばエクサバイト単位の代わりに4MB)を返し、その後アプリケーションがテンソルを処理するとヒープベースのバッファオーバーフローが発生します。この脆弱性により、メモリ破損を介したリモートコード実行(RCE)が可能となります。b7824でこの問題は修正されています。 |
| Possible impacts | 当該ソフトウェアが扱う全ての情報が外部に漏れる可能性があります。 また、当該ソフトウェアが扱う全ての情報が書き換えられる可能性があります。 さらに、当該ソフトウェアが完全に停止する可能性があります。 そして、この脆弱性を悪用した攻撃の影響は、他のソフトウェアには及びません。 |
| Solution | 正式な対策が公開されています。ベンダ情報を参照して適切な対策を実施してください。 |
| Publication Date | March 24, 2026, midnight |
| Registration Date | May 1, 2026, 10:47 a.m. |
| Last Update | May 1, 2026, 10:47 a.m. |
| CVSS3.0 : 重要 | |
| Score | 7.8 |
|---|---|
| Vector | CVSS:3.0/AV:L/AC:L/PR:N/UI:R/S:U/C:H/I:H/A:H |
| ggml.ai |
| llama.cpp b7824 未満 |
| No | Changed Details | Date of change |
|---|---|---|
| 1 | [2026年05月01日] 掲載 |
May 1, 2026, 10:47 a.m. |