論文の概要: Fuzzing: Randomness? Reasoning! Efficient Directed Fuzzing via Large Language Models
- arxiv url: http://arxiv.org/abs/2507.22065v1
- Date: Mon, 30 Jun 2025 04:33:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-03 20:19:02.911491
- Title: Fuzzing: Randomness? Reasoning! Efficient Directed Fuzzing via Large Language Models
- Title(参考訳): ファジング : ランダム性? 推論! 大規模言語モデルによる効率的な直接ファジング
- Authors: Xiaotao Feng, Xiaogang Zhu, Kun Hu, Jincheng Wang, Yingjie Cao, Guang Gong, Jianfeng Pan,
- Abstract要約: ランダム性はファジングの効率を著しく低下させ、バグを暴露するのに数日や数週間かかる。
我々は,大言語モデル (LLM) を提案し, 種子のランダム性を除去し, ミュータのランダム性を低減した。
LLMは、事前に決定された場所をターゲットにしたリーチ可能な種を生成し、特定のバグに適したバグ特異的ミュータを構築するために使用することができる。
- 参考スコア(独自算出の注目度): 16.184295639574835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fuzzing is highly effective in detecting bugs due to the key contribution of randomness. However, randomness significantly reduces the efficiency of fuzzing, causing it to cost days or weeks to expose bugs. Even though directed fuzzing reduces randomness by guiding fuzzing towards target buggy locations, the dilemma of randomness still challenges directed fuzzers. Two critical components, which are seeds and mutators, contain randomness and are closely tied to the conditions required for triggering bugs. Therefore, to address the challenge of randomness, we propose to use large language models (LLMs) to remove the randomness in seeds and reduce the randomness in mutators. With their strong reasoning and code generation capabilities, LLMs can be used to generate reachable seeds that target pre-determined locations and to construct bug-specific mutators tailored for specific bugs. We propose RandLuzz, which integrates LLMs and directed fuzzing, to improve the quality of seeds and mutators, resulting in efficient bug exposure. RandLuzz analyzes function call chain or functionality to guide LLMs in generating reachable seeds. To construct bug-specific mutators, RandLuzz uses LLMs to perform bug analysis, obtaining information such as bug causes and mutation suggestions, which further help generate code that performs bug-specific mutations. We evaluate RandLuzz by comparing it with four state-of-the-art directed fuzzers, AFLGo, Beacon, WindRanger, and SelectFuzz. With RandLuzz-generated seeds, the fuzzers achieve an average speedup ranging from 2.1$\times$ to 4.8$\times$ compared to using widely-used initial seeds. Additionally, when evaluated on individual bugs, RandLuzz achieves up to a 2.7$\times$ speedup compared to the second-fastest exposure. On 8 bugs, RandLuzz can even expose them within 60 seconds.
- Abstract(参考訳): ファジィングは、ランダム性の鍵となる寄与によりバグを検出するのに非常に効果的である。
しかし、ランダム性はファジングの効率を著しく低下させ、バグを公開するのに数日や数週間かかる。
誘導ファジィングは、目標となるバギーな場所にファジィを誘導することでランダム性を低下させるが、ランダム性のジレンマは依然として指示ファジィザに挑戦する。
種子と変異体である2つの重要なコンポーネントはランダム性を含み、バグを引き起こすのに必要な条件と密接に結びついている。
そこで本研究では,ランダム性の課題に対処するため,大言語モデル(LLM)を用いて種子のランダム性を取り除き,ミュータのランダム性を低減することを提案する。
強力な推論とコード生成機能により、LSMは事前に決定された場所をターゲットにしたリーチ可能な種を生成し、特定のバグに適したバグ固有のミュータを構築するのに使用できる。
本研究では,LLMと直接ファジィ処理を統合したRandLuzzを提案する。
RandLuzzは、関数呼び出しチェーンや機能を分析して、リーチ可能な種を生成するLLMをガイドする。
バグ固有のミューテータを構築するため、RandLuzzはLSMを使用してバグ解析を行い、バグの原因や突然変異提案などの情報を取得し、さらにバグ固有の突然変異を実行するコードを生成する。
我々はRandLuzzを、AFLGo、Beacon、WindRanger、SelectFuzzの4つの最先端指向ファザーと比較することで評価した。
RandLuzzの生成した種子では、ファッザーは広く使われる初期種子に比べて平均2.1$\times$から4.8$\times$までのスピードアップを達成する。
さらに、個々のバグを評価すると、RandLuzzは2番目に速い露出に比べて2.7$\times$のスピードアップを達成する。
8つのバグに対して、RandLuzzは60秒以内にそれらを公開することができる。
関連論文リスト
- LLAMA: Multi-Feedback Smart Contract Fuzzing Framework with LLM-Guided Seed Generation [56.84049855266145]
進化的突然変異戦略とハイブリッドテスト技術を統合したマルチフィードバックスマートコントラクトファジリングフレームワーク(LLAMA)を提案する。
LLAMAは、91%の命令カバレッジと90%のブランチカバレッジを達成すると同時に、148の既知の脆弱性のうち132が検出される。
これらの結果は、現実のスマートコントラクトセキュリティテストシナリオにおけるLAMAの有効性、適応性、実用性を強調している。
論文 参考訳(メタデータ) (2025-07-16T09:46:58Z) - Hybrid Approach to Directed Fuzzing [0.0]
そこで本研究では,新しいシードスケジューリングアルゴリズムを用いた双方向ファジリングのハイブリッド手法を提案する。
LibAFL-DiFuzz を有向ファザとして,Sydr-Fuzz を動的シンボリックエグゼキュータとして,Sydr-Fuzz ツールに実装した。
論文 参考訳(メタデータ) (2025-07-07T10:29:16Z) - $\mathbb{USCD}$: Improving Code Generation of LLMs by Uncertainty-Aware Selective Contrastive Decoding [64.00025564372095]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
幻覚の影響(例えば出力ノイズ)は、LLMが1パスで高品質なコードを生成するのを難しくする。
単純かつ効果的なtextbfuncertainty-aware textbf select textbfcontrastive textbfdecodingを提案する。
論文 参考訳(メタデータ) (2024-09-09T02:07:41Z) - FuzzCoder: Byte-level Fuzzing Test via Large Language Model [46.18191648883695]
我々は,攻撃を成功させることで,入力ファイルのパターンを学習するために,微調整された大言語モデル(FuzzCoder)を採用することを提案する。
FuzzCoderは、プログラムの異常な動作を引き起こすために、入力ファイル内の突然変異位置と戦略位置を予測することができる。
論文 参考訳(メタデータ) (2024-09-03T14:40:31Z) - HuntFUZZ: Enhancing Error Handling Testing through Clustering Based Fuzzing [19.31537246674011]
本稿では,SFIベースのファジィフレームワークであるHuntFUZZを紹介する。
我々はHuntFUZZを42のアプリケーションで評価し、HuntFUZZは162の既知のバグを明らかにし、そのうち62のバグはエラー処理に関連している。
論文 参考訳(メタデータ) (2024-07-05T06:58:30Z) - LLAMAFUZZ: Large Language Model Enhanced Greybox Fuzzing [6.042114639413868]
特殊なファジィザは複雑な構造化データを扱うことができるが、文法にさらなる努力が必要であり、低スループットに悩まされる。
本稿では,構造化データに対するグレーボックスファジングを強化するために,Large Language Modelを活用する可能性について検討する。
LLMベースのファザであるLLAMAFUZZは、LLMのパワーを統合して、構造化データをファザリングに理解し、変更する。
論文 参考訳(メタデータ) (2024-06-11T20:48:28Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - Make out like a (Multi-Armed) Bandit: Improving the Odds of Fuzzer Seed Scheduling with T-Scheduler [8.447499888458633]
Fuzzingは高度にスケール可能なソフトウェアテスト技術であり、変更された入力で実行することでターゲットプログラムのバグを明らかにする。
マルチアームバンディット理論に基づくシードスケジューラであるT-Schedulerを提案する。
ファジィリングの35 CPU yr 以上の T-Scheduler を評価し,11 の最先端スケジューラと比較した。
論文 参考訳(メタデータ) (2023-12-07T23:27:55Z) - Algorithms for Adaptive Experiments that Trade-off Statistical Analysis
with Reward: Combining Uniform Random Assignment and Reward Maximization [50.725191156128645]
トンプソンサンプリングのようなマルチアームバンディットアルゴリズムは適応的な実験を行うのに利用できる。
統計的解析のための一様ランダム化の利点を組み合わせた2つのアルゴリズムを探索する2つのアーム実験のシミュレーションを提案する。
論文 参考訳(メタデータ) (2021-12-15T22:11:58Z) - Avoiding Side Effects in Complex Environments [87.25064477073205]
おもちゃの環境では、達成可能なユーティリティ保護は、ランダムに生成された目標を達成する能力のシフトを罰することによって副作用を避けた。
このアプローチをConwayのGame of Lifeに基づいて,大規模でランダムに生成された環境に拡張する。
論文 参考訳(メタデータ) (2020-06-11T16:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。