論文の概要: Comment on Revisiting Neural Program Smoothing for Fuzzing
- arxiv url: http://arxiv.org/abs/2409.04504v1
- Date: Fri, 6 Sep 2024 16:07:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 22:31:08.698454
- Title: Comment on Revisiting Neural Program Smoothing for Fuzzing
- Title(参考訳): ファジィングのためのニューラルプログラム平滑化の再検討
- Authors: Dongdong She, Kexin Pei, Junfeng Yang, Baishakhi Ray, Suman Jana,
- Abstract要約: ACM FSE 2023で受け入れられたMLFuzzは、機械学習ベースのファザーであるNEUZZのパフォーマンスを再考する。
実装におけるいくつかの致命的なバグと間違った評価設定のために、その主な結論が完全に間違っていることを実証する。
- 参考スコア(独自算出の注目度): 34.32355705821806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: MLFuzz, a work accepted at ACM FSE 2023, revisits the performance of a machine learning-based fuzzer, NEUZZ. We demonstrate that its main conclusion is entirely wrong due to several fatal bugs in the implementation and wrong evaluation setups, including an initialization bug in persistent mode, a program crash, an error in training dataset collection, and a mistake in fuzzing result collection. Additionally, MLFuzz uses noisy training datasets without sufficient data cleaning and preprocessing, which contributes to a drastic performance drop in NEUZZ. We address these issues and provide a corrected implementation and evaluation setup, showing that NEUZZ consistently performs well over AFL on the FuzzBench dataset. Finally, we reflect on the evaluation methods used in MLFuzz and offer practical advice on fair and scientific fuzzing evaluations.
- Abstract(参考訳): ACM FSE 2023で受け入れられたMLFuzzは、機械学習ベースのファザーであるNEUZZのパフォーマンスを再考する。
実装におけるいくつかの致命的なバグと、永続モードの初期化バグ、プログラムクラッシュ、トレーニングデータセットコレクションのエラー、ファジリング結果コレクションの誤りなど、その主な結論が完全に間違っていることを実証する。
さらにMLFuzzは、十分なデータクリーニングと前処理を行わず、ノイズの多いトレーニングデータセットを使用しており、NEUZの大幅なパフォーマンス低下に貢献している。
我々はこれらの問題に対処し、実装と評価の正しさを検証し、NEUZZがFuzzBenchデータセット上のAFLに対して一貫して良好に動作することを示す。
最後に,MLFuzzにおける評価手法を考察し,公正かつ科学的ファズリング評価の実践的アドバイスを行う。
関連論文リスト
- FuzzCoder: Byte-level Fuzzing Test via Large Language Model [46.18191648883695]
我々は,攻撃を成功させることで,入力ファイルのパターンを学習するために,微調整された大言語モデル(FuzzCoder)を採用することを提案する。
FuzzCoderは、プログラムの異常な動作を引き起こすために、入力ファイル内の突然変異位置と戦略位置を予測することができる。
論文 参考訳(メタデータ) (2024-09-03T14:40:31Z) - HuntFUZZ: Enhancing Error Handling Testing through Clustering Based Fuzzing [19.31537246674011]
本稿では,SFIベースのファジィフレームワークであるHuntFUZZを紹介する。
我々はHuntFUZZを42のアプリケーションで評価し、HuntFUZZは162の既知のバグを明らかにし、そのうち62のバグはエラー処理に関連している。
論文 参考訳(メタデータ) (2024-07-05T06:58:30Z) - LLAMAFUZZ: Large Language Model Enhanced Greybox Fuzzing [6.042114639413868]
特殊なファジィザは複雑な構造化データを扱うことができるが、文法にさらなる努力が必要であり、低スループットに悩まされる。
本稿では,構造化データに対するグレーボックスファジングを強化するために,Large Language Modelを活用する可能性について検討する。
LLMベースのファザであるLLAMAFUZZは、LLMのパワーを統合して、構造化データをファザリングに理解し、変更する。
論文 参考訳(メタデータ) (2024-06-11T20:48:28Z) - SoK: Prudent Evaluation Practices for Fuzzing [21.113311952857778]
我々は2018年から2023年にかけて発行された150枚のファジィ紙の評価を体系的に分析した。
既存のガイドラインがどのように実装され、潜在的な欠点や落とし穴を観察するかを検討する。
例えば、報告されたバグの調査では、統計的検査やファジィ評価の体系的誤りに関する既存のガイドラインを驚くほど軽視している。
論文 参考訳(メタデータ) (2024-05-16T16:10:41Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Noisy Pair Corrector for Dense Retrieval [59.312376423104055]
ノイズペアコレクタ(NPC)と呼ばれる新しい手法を提案する。
NPCは検出モジュールと修正モジュールから構成される。
我々は,テキスト検索ベンチマークのNatural QuestionとTriviaQA,コード検索ベンチマークのStaQCとSO-DSで実験を行った。
論文 参考訳(メタデータ) (2023-11-07T08:27:14Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Revisiting Neural Program Smoothing for Fuzzing [8.861172379630899]
本稿では,標準グレーボックスファザに対するNPSファザの最も広範囲な評価について述べる。
我々はNuzz++を実装し、NPSファジィの実用的限界に対処することで性能が向上することを示す。
MLベースファジィの簡易かつ再現可能な評価のためのGPUアクセスプラットフォームであるMLFuzzを提案する。
論文 参考訳(メタデータ) (2023-09-28T17:17:11Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。