論文の概要: Fuzzwise: Intelligent Initial Corpus Generation for Fuzzing
- arxiv url: http://arxiv.org/abs/2512.21440v1
- Date: Wed, 24 Dec 2025 22:17:29 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:56:36.34687
- Title: Fuzzwise: Intelligent Initial Corpus Generation for Fuzzing
- Title(参考訳): ファズワイズ:ファズワイズのためのインテリジェント初期コーパス生成
- Authors: Hridya Dhulipala, Xiaokai Rong, Aashish Yadavally, Tien N. Nguyen,
- Abstract要約: 突然変異ベースのグレーボックスファジングでは、初期コーパスのための高品質な入力シードを生成することが不可欠である。
FuzzyWiseは、大きなコーパスを生成し、その後最小化するために、別々のフェーズを統合する。
FuzzyWiseは高いコードカバレッジを実現し、ベースラインと比較してランタイムエラーを発生させる。
- 参考スコア(独自算出の注目度): 14.734454356396157
- License:
- Abstract: In mutation-based greybox fuzzing, generating high-quality input seeds for the initial corpus is essential for effective fuzzing. Rather than conducting separate phases for generating a large corpus and subsequently minimizing it, we propose FuzzWise which integrates them into one process to generate the optimal initial corpus of seeds (ICS). FuzzWise leverages a multi-agent framework based on Large Language Models (LLMs). The first LLM agent generates test cases for the target program. The second LLM agent, which functions as a predictive code coverage module, assesses whether each generated test case will enhance the overall coverage of the current corpus. The streamlined process allows each newly generated test seed to be immediately evaluated for its contribution to the overall coverage. FuzzWise employs a predictive approach using an LLM and eliminates the need for actual execution, saving computational resources and time, particularly in scenarios where the execution is not desirable or even impossible. Our empirical evaluation demonstrates that FuzzWise generates significantly fewer test cases than baseline methods. Despite the lower number of test cases, FuzzWise achieves high code coverage and triggers more runtime errors compared to the baselines. Moreover, it is more time-efficient and coverage-efficient in producing an initial corpus catching more errors.
- Abstract(参考訳): 突然変異ベースのグレーボックスファジングでは、初期コーパスに高品質なインプットシードを生成することが効果的なファジングに不可欠である。
大規模コーパスの生成と最小化のために個別のフェーズを実行するのではなく, 種子の初期コーパス(ICS)を生成するために, それらを一つのプロセスに統合するFuzzWiseを提案する。
FuzzWiseはLarge Language Models (LLM)に基づくマルチエージェントフレームワークを利用している。
第1のLDMエージェントは、ターゲットプログラムのテストケースを生成する。
第2のLSMエージェントは、予測コードカバレッジモジュールとして機能し、各生成されたテストケースが現在のコーパス全体のカバレッジを高めるかどうかを評価する。
合理化されたプロセスにより、新しく生成された各テストシードを、その全体カバレッジへのコントリビューションのために直ちに評価することができる。
FuzzWiseはLLMを使った予測アプローチを採用し、実際の実行の必要性を排除し、計算リソースと時間を節約する。
我々の経験的評価は、FuzzWiseがベースライン法よりもはるかに少ないテストケースを生成することを示している。
テストケースの数が少ないにもかかわらず、FuzzWiseは高いコードカバレッジを実現し、ベースラインと比較してランタイムエラーを発生させる。
さらに、より多くのエラーをキャッチする初期コーパスを生成する場合、より時間効率が高く、カバレッジ効率が高い。
関連論文リスト
- LLMs are All You Need? Improving Fuzz Testing for MOJO with Large Language Models [7.171282546185869]
大規模言語モデル(LLM)は、多種多様な効果的なテストインプットの自動生成によって、ソフトウェアテスト、特にファズテストに革命をもたらした。
MoJOは、PythonのユーザビリティとCとC++の効率を融合した高性能なAIプログラミング言語である。
MoJOFuzzerは、新興プログラミング言語のゼロショット学習環境向けに設計された最初の適応LDMベースのファジングフレームワークである。
論文 参考訳(メタデータ) (2025-10-11T11:37:18Z) - BASFuzz: Towards Robustness Evaluation of LLM-based NLP Software via Automated Fuzz Testing [8.893978269498524]
BASFuzzは、大規模言語モデル(LLM)ベースのNLPソフトウェアに適した効率的なファズテスト手法である。
ビームサーチとシミュレーションアニーリングを統合したビーム-アニーリング探索アルゴリズムを用いて,効率的なファジリングループを設計する。
実験では、BASFuzzは平均時間オーバーヘッドを2,163.852秒削減し、90.335%のテスト効率を達成している。
論文 参考訳(メタデータ) (2025-09-22T03:13:57Z) - Provable Scaling Laws for the Test-Time Compute of Large Language Models [84.00141420901038]
本研究では,大規模言語モデルのテスト時間計算において,証明可能なスケーリング法則を享受する2つのアルゴリズムを提案する。
1つは2段階ノックアウト方式のアルゴリズムで、各候補は複数の相手に対して平均勝利率で評価される。
もう1つは2段階のリーグ方式のアルゴリズムで、各候補は複数の相手に対して平均勝利率で評価される。
論文 参考訳(メタデータ) (2024-11-29T05:29:47Z) - $\mathbb{USCD}$: Improving Code Generation of LLMs by Uncertainty-Aware Selective Contrastive Decoding [64.00025564372095]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
幻覚の影響(例えば出力ノイズ)は、LLMが1パスで高品質なコードを生成するのを難しくする。
単純かつ効果的なtextbfuncertainty-aware textbf select textbfcontrastive textbfdecodingを提案する。
論文 参考訳(メタデータ) (2024-09-09T02:07:41Z) - Nearest Neighbor Speculative Decoding for LLM Generation and Attribution [87.3259169631789]
Nearest Speculative Decoding (NEST)は、任意の長さの実世界のテキストスパンをLM世代に組み込むことができ、それらのソースへの属性を提供する。
NESTは、様々な知識集約タスクにおいて、基本LMの生成品質と帰属率を大幅に向上させる。
さらに、NESTは、Llama-2-Chat 70Bに適用した場合の推論時間において1.8倍のスピードアップを達成することにより、生成速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-05-29T17:55:03Z) - Large Language Models as Test Case Generators: Performance Evaluation and Enhancement [3.5398126682962587]
大規模言語モデルが高品質なテストケースをいかに生み出すかを検討する。
本稿では,テストインプットとテストアウトプットの生成を分離するemphTestChainというマルチエージェントフレームワークを提案する。
以上の結果から,TestChainはベースラインのマージンを大きく上回っていることが示唆された。
論文 参考訳(メタデータ) (2024-04-20T10:27:01Z) - EEL: Efficiently Encoding Lattices for Reranking [44.77383151122229]
生成した出力の格子を効率的にエンコードするためにTransformerを使用します。
このアプローチをトークン駆動リランカ(TFR)の新しいクラスと組み合わせる。
以上の結果から,ダウンストリームメトリクスの性能は,従来の手法に比べて大幅に向上した。
論文 参考訳(メタデータ) (2023-06-01T17:45:32Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。