論文の概要: Revisiting Neural Program Smoothing for Fuzzing
- arxiv url: http://arxiv.org/abs/2309.16618v1
- Date: Thu, 28 Sep 2023 17:17:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 13:04:38.146366
- Title: Revisiting Neural Program Smoothing for Fuzzing
- Title(参考訳): ファジィングのためのニューラルプログラム平滑化の再検討
- Authors: Maria-Irina Nicolae, Max Eisele, Andreas Zeller
- Abstract要約: 本稿では,標準グレーボックスファザに対するNPSファザの最も広範囲な評価について述べる。
我々はNuzz++を実装し、NPSファジィの実用的限界に対処することで性能が向上することを示す。
MLベースファジィの簡易かつ再現可能な評価のためのGPUアクセスプラットフォームであるMLFuzzを提案する。
- 参考スコア(独自算出の注目度): 8.861172379630899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Testing with randomly generated inputs (fuzzing) has gained significant
traction due to its capacity to expose program vulnerabilities automatically.
Fuzz testing campaigns generate large amounts of data, making them ideal for
the application of machine learning (ML). Neural program smoothing (NPS), a
specific family of ML-guided fuzzers, aims to use a neural network as a smooth
approximation of the program target for new test case generation.
In this paper, we conduct the most extensive evaluation of NPS fuzzers
against standard gray-box fuzzers (>11 CPU years and >5.5 GPU years), and make
the following contributions: (1) We find that the original performance claims
for NPS fuzzers do not hold; a gap we relate to fundamental, implementation,
and experimental limitations of prior works. (2) We contribute the first
in-depth analysis of the contribution of machine learning and gradient-based
mutations in NPS. (3) We implement Neuzz++, which shows that addressing the
practical limitations of NPS fuzzers improves performance, but that standard
gray-box fuzzers almost always surpass NPS-based fuzzers. (4) As a consequence,
we propose new guidelines targeted at benchmarking fuzzing based on machine
learning, and present MLFuzz, a platform with GPU access for easy and
reproducible evaluation of ML-based fuzzers. Neuzz++, MLFuzz, and all our data
are public.
- Abstract(参考訳): ランダムに生成された入力(ファジング)を使ったテストは、プログラムの脆弱性を自動的に露呈する能力により、大きな注目を集めている。
ファズテストキャンペーンは大量のデータを生成し、機械学習(ML)の適用に最適である。
ML誘導ファジィの特定のファミリーであるニューラルプログラムスムーシング(NPS)は、新しいテストケース生成のためのプログラムターゲットのスムーズな近似としてニューラルネットワークを使用することを目的としている。
本稿では,標準グレーボックスファザ(=11 CPU年,=5.5 GPU年)に対するNPSファザの最も広範囲な評価を行い,(1)NPSファザの本来の性能要求が満たされていないこと,(2)先行作業の基本的,実装的,実験的制限に関連するギャップについて考察する。
2) NPSにおける機械学習と勾配に基づく突然変異の寄与の詳細な分析を行った。
(3)Nuzz++を実装し,NPSファッザの実用的限界に対処することで性能が向上するが,標準グレーボックスファッザはNPSファッザをほぼ超越していることを示す。
その結果,機械学習に基づくファジィリングのベンチマークを目的とした新たなガイドラインが提案され,MLベースのファジィアを容易に再現可能なGPUアクセスプラットフォームであるMLFuzzが提案されている。
neuzz++、mlfuzz、そして私たちのデータはすべてパブリックです。
関連論文リスト
- An Early FIRST Reproduction and Improvements to Single-Token Decoding for Fast Listwise Reranking [50.81324768683995]
FIRSTは、学習からランクへの目的を統合し、最初の生成されたトークンのみのロジットを活用する新しいアプローチである。
我々は、FIRSTの評価をTRECディープラーニングデータセット(DL19-22)に拡張し、様々な領域でその堅牢性を検証する。
我々の実験は、単一トークンの高速リランクは、ドメイン外リランクの品質を損なうものではないことを確認した。
論文 参考訳(メタデータ) (2024-11-08T12:08:17Z) - Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Comment on Revisiting Neural Program Smoothing for Fuzzing [34.32355705821806]
ACM FSE 2023で受け入れられたMLFuzzは、機械学習ベースのファザーであるNEUZZのパフォーマンスを再考する。
実装におけるいくつかの致命的なバグと間違った評価設定のために、その主な結論が完全に間違っていることを実証する。
論文 参考訳(メタデータ) (2024-09-06T16:07:22Z) - FuzzCoder: Byte-level Fuzzing Test via Large Language Model [46.18191648883695]
我々は,攻撃を成功させることで,入力ファイルのパターンを学習するために,微調整された大言語モデル(FuzzCoder)を採用することを提案する。
FuzzCoderは、プログラムの異常な動作を引き起こすために、入力ファイル内の突然変異位置と戦略位置を予測することができる。
論文 参考訳(メタデータ) (2024-09-03T14:40:31Z) - LLAMAFUZZ: Large Language Model Enhanced Greybox Fuzzing [6.042114639413868]
特殊なファジィザは複雑な構造化データを扱うことができるが、文法にさらなる努力が必要であり、低スループットに悩まされる。
本稿では,構造化データに対するグレーボックスファジングを強化するために,Large Language Modelを活用する可能性について検討する。
LLMベースのファザであるLLAMAFUZZは、LLMのパワーを統合して、構造化データをファザリングに理解し、変更する。
論文 参考訳(メタデータ) (2024-06-11T20:48:28Z) - Fuzzing BusyBox: Leveraging LLM and Crash Reuse for Embedded Bug
Unearthing [2.4287247817521096]
BusyBoxの脆弱性は、はるかに大きな結果をもたらす可能性がある。
この研究は、現実の組み込み製品で古いBusyBoxバージョンが普及していることを明らかにした。
ソフトウェアテストの強化のための2つのテクニックを紹介します。
論文 参考訳(メタデータ) (2024-03-06T17:57:03Z) - Fuzzing for CPS Mutation Testing [3.512722797771289]
本稿では, ファジテストを利用した突然変異検査手法を提案し, C および C++ ソフトウェアで有効であることが証明された。
実験により, ファジテストに基づく突然変異試験は, シンボル実行よりも高い頻度で生存変異体を殺傷することが明らかとなった。
論文 参考訳(メタデータ) (2023-08-15T16:35:31Z) - Sample-Then-Optimize Batch Neural Thompson Sampling [50.800944138278474]
我々はトンプソンサンプリング(TS)ポリシーに基づくブラックボックス最適化のための2つのアルゴリズムを提案する。
入力クエリを選択するには、NNをトレーニングし、トレーニングされたNNを最大化してクエリを選択するだけです。
我々のアルゴリズムは、大きなパラメータ行列を逆転する必要性を助長するが、TSポリシーの妥当性は保たれている。
論文 参考訳(メタデータ) (2022-10-13T09:01:58Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box
Estimation [87.53808756910452]
そこで我々は,Alpha-Refineと呼ばれる新しい,フレキシブルで高精度な改良モジュールを提案する。
正確なピクセルワイド相関層と空間認識の非局所層を利用して特徴を融合させ、バウンディングボックス、コーナー、マスクの3つの相補的な出力を予測する。
提案するAlpha-Refineモジュールは,DiMP,ATOM,SiamRPN++,RTMDNet,ECOの5つの有名かつ最先端のベーストラッカーに適用する。
論文 参考訳(メタデータ) (2020-07-04T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。