論文の概要: Tumbling Down the Rabbit Hole: How do Assisting Exploration Strategies Facilitate Grey-box Fuzzing?
- arxiv url: http://arxiv.org/abs/2409.14541v2
- Date: Tue, 24 Sep 2024 07:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 22:19:40.856805
- Title: Tumbling Down the Rabbit Hole: How do Assisting Exploration Strategies Facilitate Grey-box Fuzzing?
- Title(参考訳): Rabbitの穴を塞ぐ:グレイボックスのファジングを支援するにはどうすればいいのか?
- Authors: Mingyuan Wu, Jiahong Xiang, Kunqiu Chen, Peng DI, Shin Hwei Tan, Heming Cui, Yuqun Zhang,
- Abstract要約: 本研究は, グレーボックスファジッターの探査支援に関する総合的研究としては初めてである。
そこで本研究では,基本ファジタAFL上で,各シードに対して独自の辞書を生成するCDFUZZを提案する。
CDFUZZは,全ベンチマークプロジェクトのエッジカバレッジを平均16.1%向上させる。
- 参考スコア(独自算出の注目度): 12.324907799270642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many assisting exploration strategies have been proposed to assist grey-box fuzzers in exploring program states guarded by tight and complex branch conditions such as equality constraints. Although they have shown promising results in their original papers, their evaluations seldom follow equivalent protocols, e.g., they are rarely evaluated on identical benchmarks. Moreover, there is a lack of sufficient investigations on the specifics of the program states explored by these strategies which can obfuscate the future application and development of such strategies. Consequently, there is a pressing need for a comprehensive study of assisting exploration strategies on their effectiveness, versatility, and limitations to enlighten their future development. To this end, we perform the first comprehensive study about the assisting exploration strategies for grey-box fuzzers. Specifically, we first collect nine recent fuzzers representing the mainstream assisting exploration strategies as our studied subjects and 21 real-world projects to form our benchmark suite. After evaluating the subjects on the benchmark suite, we then surprisingly find that the dictionary strategy is the most promising since it not only achieves similar or even slightly better performance over the other studied assisting exploration strategies in terms of exploring program states but also is more practical to be enhanced. Accordingly, we propose CDFUZZ, which generates a customized dictionary for each seed upon the baseline fuzzer AFL to improve over the original dictionary strategy. The evaluation results demonstrate that CDFUZZ increases the edge coverage by 16.1% on average for all benchmark projects over the best performer in our study (i.e., AFL++ with the dictionary strategy). CDFUZZ also successfully exposed 37 previously unknown bugs, with nine confirmed and seven fixed by the corresponding developers.
- Abstract(参考訳): 等式制約のような厳密で複雑な分岐条件で守られたプログラム状態の探索において、グレーボックスファジアーを支援するために多くの補助探索戦略が提案されている。
彼らは元の論文で有望な結果を示したが、それらの評価は同等のプロトコルに従うことは滅多になく、例えば同一のベンチマークで評価されることはめったにない。
さらに、これらの戦略によって探索されるプログラム状態の具体性について十分な調査が行われていないため、これらの戦略の今後の適用と開発を阻害することができる。
その結果,探索戦略の有効性,汎用性,そして今後の発展を啓蒙するための限界を総合的に研究する必要性が高まっている。
この目的のために,グレーボックスファジッターの探索支援に関する総合的研究を行った。
具体的には、調査対象として主流の探索支援戦略を表す9つの最近のファジィザと、ベンチマークスイートを形成する21の現実世界プロジェクトを収集します。
ベンチマークスイートの課題を評価した結果,この辞書戦略は,プログラム状態の探索において,他の研究よりも類似性や若干優れた性能を達成できるだけでなく,実用性も向上できるため,最も有望であることが判明した。
そこで,本研究では,ベースラインファジタAFL上で,各シードに対して独自の辞書を生成するCDFUZZを提案する。
評価の結果、CDFUZZは、我々の研究で最高のパフォーマンス(例えば辞書戦略を持つAFL++)に対して、すべてのベンチマークプロジェクトにおいて、平均16.1%のエッジカバレッジを向上することが示された。
CDFUZZは37の既知のバグも公開し、9つの確認と7つの修正が行われた。
関連論文リスト
- O1 Replication Journey: A Strategic Progress Report -- Part 1 [52.062216849476776]
本稿では,O1 Replication Journeyに具体化された人工知能研究の先駆的アプローチを紹介する。
我々の方法論は、長期化したチームベースのプロジェクトの不規則性を含む、現代のAI研究における重要な課題に対処する。
本稿では,モデルにショートカットだけでなく,完全な探索プロセスの学習を促す旅行学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-08T15:13:01Z) - Reward Augmentation in Reinforcement Learning for Testing Distributed Systems [6.0560257343687995]
人気のある分散プロトコル実装のバグは、人気のあるインターネットサービスにおける多くのダウンタイムの源となっている。
本稿では,強化学習に基づく分散プロトコル実装のためのランダム化テスト手法について述べる。
お互いに構築する2つの異なるテクニックを示します。
論文 参考訳(メタデータ) (2024-09-02T15:07:05Z) - Fast Peer Adaptation with Context-aware Exploration [63.08444527039578]
マルチエージェントゲームにおける学習エージェントに対するピア識別報酬を提案する。
この報酬は、効果的な探索と迅速な適応のための文脈認識ポリシーを学ぶためのエージェントのモチベーションとなる。
我々は,競争力のある(クーンポーカー),協力的(PO-Overcooked),あるいは混合的(Predator-Prey-W)な(Pedator-Prey-W)ゲームを含む多種多様なテストベッドについて評価を行った。
論文 参考訳(メタデータ) (2024-02-04T13:02:27Z) - Why is the winner the best? [78.74409216961632]
IEEE I SBI 2021 と MICCAI 2021 の範囲で実施した80のコンペすべてを対象に,マルチセンターで実施した。
勝者となるソリューションとしては、マルチタスク学習(63%)、マルチステージパイプライン(61%)、拡大(100%)、画像前処理(97%)、データキュレーション(79%)、後処理(66%)などがある。
高ランクのチームでは、メソッド設計におけるメトリクスの反映と、障害ケースの分析と処理に焦点を当てた2つの中核的な開発戦略が目立った。
論文 参考訳(メタデータ) (2023-03-30T21:41:42Z) - Guarantees for Epsilon-Greedy Reinforcement Learning with Function
Approximation [69.1524391595912]
エプシロングレーディ、ソフトマックス、ガウシアンノイズといった神秘的な探索政策は、いくつかの強化学習タスクにおいて効率的に探索することができない。
本稿では,このような政策を理論的に分析し,筋電図探索による強化学習のための最初の後悔とサンプル複雑度境界を提供する。
論文 参考訳(メタデータ) (2022-06-19T14:44:40Z) - MS MARCO: Benchmarking Ranking Models in the Large-Data Regime [57.37239054770001]
本稿では,MS MARCO と TREC Deep Learning Track をケーススタディとして用いた。
評価の取り組みの設計が、特定の成果を奨励または阻止する方法を示します。
我々は、ある種の落とし穴の分析と、そのような落とし穴を避けるためのベストプラクティスのステートメントを提供する。
論文 参考訳(メタデータ) (2021-05-09T20:57:36Z) - Reannealing of Decaying Exploration Based On Heuristic Measure in Deep
Q-Network [82.20059754270302]
本稿では,再熱処理の概念に基づくアルゴリズムを提案し,必要なときにのみ探索を促進することを目的とする。
我々は、訓練を加速し、より良い政策を得る可能性を示す実証的なケーススタディを実施している。
論文 参考訳(メタデータ) (2020-09-29T20:40:00Z) - Self Punishment and Reward Backfill for Deep Q-Learning [6.572828651397661]
強化学習エージェントは、通常環境によって提供される全報酬を最大化する行動を促すことで学習する。
多くの環境では、報酬は個々のアクションではなく一連のアクションの後に提供され、エージェントはそれらのアクションが有効かどうかという点であいまいさを経験する。
本研究では,行動心理学にインスパイアされた2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-04-10T11:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。