論文の概要: Beyond Imprecise Distance Metrics: LLM-Predicted Target Call Stacks for Directed Greybox Fuzzing
- arxiv url: http://arxiv.org/abs/2510.23101v1
- Date: Mon, 27 Oct 2025 08:17:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.596391
- Title: Beyond Imprecise Distance Metrics: LLM-Predicted Target Call Stacks for Directed Greybox Fuzzing
- Title(参考訳): 不正確な距離の測定値を超える: 直接グレイボックスファジングのためのLLM予測ターゲットコールスタック
- Authors: Yifan Zhang, Xin Zhang,
- Abstract要約: Directed graybox fuzzing (DGF)は、特定のターゲット位置でバグを効率的にトリガーすることを目的としている。
既存のDGFアプローチは不正確な確率計算に悩まされている。
そこで本稿では,静的解析に基づく距離測定を高精度なコールスタック表現に置き換えることを提案する。
- 参考スコア(独自算出の注目度): 11.825548125173022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Directed greybox fuzzing (DGF) aims to efficiently trigger bugs at specific target locations by prioritizing seeds whose execution paths are more likely to mutate into triggering target bugs. However, existing DGF approaches suffer from imprecise probability calculations due to their reliance on complex distance metrics derived from static analysis. The over-approximations inherent in static analysis cause a large number of irrelevant execution paths to be mistakenly considered to potentially mutate into triggering target bugs, significantly reducing fuzzing efficiency. We propose to replace static analysis-based distance metrics with precise call stack representations. Call stacks represent precise control flows, thereby avoiding false information in static analysis. We leverage large language models (LLMs) to predict vulnerability-triggering call stacks for guiding seed prioritization. Our approach constructs call graphs through static analysis to identify methods that can potentially reach target locations, then utilizes LLMs to predict the most likely call stack sequence that triggers the vulnerability. Seeds whose execution paths have higher overlap with the predicted call stack are prioritized for mutation. This is the first work to integrate LLMs into the core seed prioritization mechanism of DGF. We implement our approach and evaluate it against several state-of-the-art fuzzers. On a suite of real-world programs, our approach triggers vulnerabilities $1.86\times$ to $3.09\times$ faster compared to baselines. In addition, our approach identifies 10 new vulnerabilities and 2 incomplete fixes in the latest versions of programs used in our controlled experiments through directed patch testing, with 10 assigned CVE IDs.
- Abstract(参考訳): Directed graybox fuzzing (DGF) は、実行経路が変更されやすく、ターゲットのバグを引き起こす種子を優先順位付けすることで、特定のターゲット位置のバグを効率的にトリガーすることを目的としている。
しかし、既存のDGFアプローチは、静的解析から得られた複素距離メトリクスに依存するため、不正確な確率計算に悩まされている。
静的解析に固有の過度な近似は、多くの無関係な実行パスを誤って、ターゲットのバグを引き起こす可能性があるとみなし、ファジング効率を著しく低下させる。
そこで本稿では,静的解析に基づく距離測定を高精度なコールスタック表現に置き換えることを提案する。
コールスタックは正確な制御フローを表し、静的解析における誤った情報を避ける。
我々は、大規模言語モデル(LLM)を利用して、シード優先順位付けを導くための脆弱性トリガ呼び出しスタックを予測します。
我々のアプローチは静的解析によってコールグラフを構築し、ターゲット位置に到達する可能性のあるメソッドを特定し、次にLSMを使用して、脆弱性を引き起こす最も可能性が高いコールスタックシーケンスを予測する。
予測されたコールスタックと高いオーバーラップした実行パスを持つ種子は、突然変異のために優先順位付けされる。
これは、LDMをDGFのコアシード優先順位付け機構に統合する最初の試みである。
提案手法を実装し,いくつかの最先端ファジィファジィに対して評価する。
現実世界のプログラムのスイートでは、我々のアプローチは脆弱性を1.86\times$から3.09\times$にトリガーします。
さらに本手法では,10個のCVEIDを割り当てた有向パッチテストにより,制御実験で使用したプログラムの最新バージョンにおいて,10個の新たな脆弱性と2個の不完全な修正を識別する。
関連論文リスト
- RePaCA: Leveraging Reasoning Large Language Models for Static Automated Patch Correctness Assessment [0.0]
本稿では,Large Language Models (LLM) を利用した新しい静的APCA手法であるRePaCAを紹介する。
提案手法は,83.1%の精度と84.8%のF1スコアで最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-07-30T11:21:09Z) - The Hitchhiker's Guide to Program Analysis, Part II: Deep Thoughts by LLMs [17.497629884237647]
BugLensは、バグ検出のための静的解析精度を大幅に向上させる、ポストリファインメントフレームワークである。
LLMは有望なコード理解能力を示すが、プログラム分析への直接の応用は信頼できない。
LLMは、セキュリティへの影響を評価し、ソースコードから制約を検証するため、構造化された推論ステップを通じてLLMをガイドする。
論文 参考訳(メタデータ) (2025-04-16T02:17:06Z) - KNighter: Transforming Static Analysis with LLM-Synthesized Checkers [20.368621145118468]
KNighterは多様なバグパターンを検出することができる高精度チェッカーを生成する。
これまでに、KNighterの合成チェッカーは、Linuxカーネルに92の新しい、クリティカルで、長期間のバグを発見した。
論文 参考訳(メタデータ) (2025-03-12T02:30:19Z) - Uncertainty is Fragile: Manipulating Uncertainty in Large Language Models [79.76293901420146]
大規模言語モデル(LLM)は、出力の信頼性が不可欠である様々な高い領域で採用されている。
本研究では,不確実性推定の脆弱性を調査し,攻撃の可能性を探る。
攻撃者がLSMにバックドアを埋め込むことができ、入力中の特定のトリガーによって起動されると、最終的な出力に影響を与えることなくモデルの不確実性を操作できることを示す。
論文 参考訳(メタデータ) (2024-07-15T23:41:11Z) - Combined Static Analysis and Machine Learning Prediction for Application Debloating [2.010931857032585]
我々は静的保証付き予測デブロット(PDSG)の枠組みを開発する。
PDSGは、呼び出し元から発せられる動的な呼び出し元セットを予測し、誤った予測を解決するために、コールチェーンの静的不変量に基づいた軽量な監査を使用する。
SPEC CPU 2017において、同様の技術の中で最高のガジェット削減を実現し、平均して82.5%のガジェットを削減した。
論文 参考訳(メタデータ) (2024-03-30T00:14:17Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Continual Test-Time Domain Adaptation [94.51284735268597]
テスト時ドメイン適応は、ソースデータを使用しずに、ソース事前訓練されたモデルをターゲットドメインに適応することを目的としている。
CoTTAは実装が容易で、市販の事前訓練モデルに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-03-25T11:42:02Z) - D2A: A Dataset Built for AI-Based Vulnerability Detection Methods Using
Differential Analysis [55.15995704119158]
静的解析ツールによって報告されたラベル問題に対する差分解析に基づくアプローチであるD2Aを提案する。
D2Aを使用して大きなラベル付きデータセットを生成し、脆弱性識別のためのモデルをトレーニングします。
論文 参考訳(メタデータ) (2021-02-16T07:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。