| Title | ggml.aiのllama.cppにおけるバッファエラーの脆弱性 |
|---|---|
| Summary | llama.cppはC/C++で実装された複数のLLMモデルの推論器です。バージョンb8492以前では、RPCバックエンドのdeserialize_tensor()がテンソルのbufferフィールドが0の場合にすべての境界検証をスキップしていました。認証されていない攻撃者は、細工されたGRAPH_COMPUTEメッセージを介して任意のプロセスメモリを読み書きできます。ALLOC_BUFFER/BUFFER_GET_BASEからのポインタ情報漏洩と組み合わさることで、完全なASLR回避およびリモートコード実行を可能にします。認証は不要であり、RPCサーバーポートへのTCPアクセスだけで攻撃が成立します。この問題はバージョンb8492で修正されました。 |
| Possible impacts | 当該ソフトウェアが扱う全ての情報が外部に漏れる可能性があります。 また、当該ソフトウェアが扱う全ての情報が書き換えられる可能性があります。 さらに、当該ソフトウェアが完全に停止する可能性があります。 そして、この脆弱性を悪用した攻撃の影響は、他のソフトウェアには及びません。 |
| Solution | 正式な対策が公開されています。ベンダ情報を参照して適切な対策を実施してください。 |
| Publication Date | April 1, 2026, midnight |
| Registration Date | May 7, 2026, 12:30 p.m. |
| Last Update | May 7, 2026, 12:30 p.m. |
| CVSS3.0 : 緊急 | |
| Score | 9.8 |
|---|---|
| Vector | CVSS:3.0/AV:N/AC:L/PR:N/UI:N/S:U/C:H/I:H/A:H |
| ggml.ai |
| llama.cpp b8492 未満 |
| No | Changed Details | Date of change |
|---|---|---|
| 1 | [2026年05月07日] 掲載 |
May 7, 2026, 12:30 p.m. |