論文の概要: SAND: Decoupling Sanitization from Fuzzing for Low Overhead
- arxiv url: http://arxiv.org/abs/2402.16497v1
- Date: Mon, 26 Feb 2024 11:30:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:46:55.819305
- Title: SAND: Decoupling Sanitization from Fuzzing for Low Overhead
- Title(参考訳): SAND: 低いオーバーヘッドでファジングから衛生を分離する
- Authors: Ziqiao Kong, Shaohua Li, Heqing Huang, Zhendong Su
- Abstract要約: Sanitizersは、さまざまなソフトウェア脆弱性に対して堅牢なテストオラクルを提供する。
サニタイザ対応プログラムのファジィングは、ソフトウェアバグを見つけるためのベストプラクティスです。
ファジィリングループから衛生化を分離する新しいファジィングフレームワークであるSANDを提示する。
- 参考スコア(独自算出の注目度): 13.473109969308164
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sanitizers provide robust test oracles for various software vulnerabilities.
Fuzzing on sanitizer-enabled programs has been the best practice to find
software bugs. Since sanitizers need to heavily instrument a target program to
insert run-time checks, sanitizer-enabled programs have much higher overhead
compared to normally built programs. In this paper, we present SAND, a new
fuzzing framework that decouples sanitization from the fuzzing loop. SAND
performs fuzzing on a normally built program and only invokes sanitizer-enabled
programs when input is shown to be interesting. Since most of the generated
inputs are not interesting, i.e., not bug-triggering, SAND allows most of the
fuzzing time to be spent on the normally built program. To identify interesting
inputs, we introduce execution pattern for a practical execution analysis on
the normally built program. We realize SAND on top of AFL++ and evaluate it on
12 real-world programs. Our extensive evaluation highlights its effectiveness:
on a period of 24 hours, compared to fuzzing on ASan/UBSan-enabled and
MSan-enabled programs, SAND respectively achieves 2.6x and 15x throughput and
detects 51% and 242% more bugs.
- Abstract(参考訳): Sanitizersは、さまざまなソフトウェア脆弱性に対して堅牢なテストオラクルを提供する。
サニタイザ対応プログラムのファジィングは、ソフトウェアバグを見つけるためのベストプラクティスです。
サニタイザは実行時のチェックを挿入するためにターゲットプログラムを十分に実装する必要があるため、サニタイザ対応プログラムは通常のプログラムに比べてオーバーヘッドが大きい。
本稿では, ファジィリングループから衛生化を分離する新しいファジィリングフレームワークであるSANDを提案する。
SANDは通常構築されたプログラムでファジィングを行い、入力が興味深いことを示すときにのみサニタイザ対応プログラムを起動する。
生成されたインプットのほとんどは興味深いものではなく、つまりバグトリガではないため、SANDは通常のプログラムにファジィング時間の大半を費やすことができる。
興味のあるインプットを特定するために,通常構築されたプログラム上で実行分析を行うための実行パターンを提案する。
AFL++上でSANDを実現し,実世界の12のプログラムで評価する。
ASan/UBSan対応プログラムとMSan対応プログラムのファジングと比較して、SANDはそれぞれ2.6倍と15倍のスループットを達成し、51%と242%のバグを検出する。
関連論文リスト
- FuzzCoder: Byte-level Fuzzing Test via Large Language Model [46.18191648883695]
我々は,攻撃を成功させることで,入力ファイルのパターンを学習するために,微調整された大言語モデル(FuzzCoder)を採用することを提案する。
FuzzCoderは、プログラムの異常な動作を引き起こすために、入力ファイル内の突然変異位置と戦略位置を予測することができる。
論文 参考訳(メタデータ) (2024-09-03T14:40:31Z) - HuntFUZZ: Enhancing Error Handling Testing through Clustering Based Fuzzing [19.31537246674011]
本稿では,SFIベースのファジィフレームワークであるHuntFUZZを紹介する。
我々はHuntFUZZを42のアプリケーションで評価し、HuntFUZZは162の既知のバグを明らかにし、そのうち62のバグはエラー処理に関連している。
論文 参考訳(メタデータ) (2024-07-05T06:58:30Z) - Fuzzing at Scale: The Untold Story of the Scheduler [0.48342038441006807]
我々は、どのプログラムをファズすべきか、どのくらいの間、プログラム全体で見つかったバグの数に大きな影響を与えるかを決定する、よく設計された戦略を示します。
いくつかのスケジューラを開発し、最も洗練されたスケジューラを活用して、新しくコンパイルされた約5,000のUbuntuプログラムのベンチマークを同時にファズし、4908のバグを検出する。
論文 参考訳(メタデータ) (2024-06-26T04:28:02Z) - NExT: Teaching Large Language Models to Reason about Code Execution [50.93581376646064]
大規模言語モデル(LLM)のコードは通常、プログラムの表面テキスト形式に基づいて訓練される。
NExTは,プログラムの実行トレースを検査し,実行時の動作を判断する手法である。
論文 参考訳(メタデータ) (2024-04-23T01:46:32Z) - UBfuzz: Finding Bugs in Sanitizer Implementations [15.070062082861874]
コアコンポーネントは(1)未定義の動作を含むプログラムを生成するために特別に設計されたプログラムジェネレータである。
生成したUBプログラムはその後、複数のサニタイザ実装の差分テストに使用される。
われわれの技術は、消毒剤を検査するための実用ツールUBfuzzに組み込まれている。
論文 参考訳(メタデータ) (2024-01-09T13:22:33Z) - Fuzzing for CPS Mutation Testing [3.512722797771289]
本稿では, ファジテストを利用した突然変異検査手法を提案し, C および C++ ソフトウェアで有効であることが証明された。
実験により, ファジテストに基づく突然変異試験は, シンボル実行よりも高い頻度で生存変異体を殺傷することが明らかとなった。
論文 参考訳(メタデータ) (2023-08-15T16:35:31Z) - NAPG: Non-Autoregressive Program Generation for Hybrid Tabular-Textual
Question Answering [52.10214317661547]
現在の数値推論法はプログラムシーケンスを自己回帰的にデコードする。
プログラム生成の精度は、デコードステップがエラー伝搬によって展開されるにつれて急激に低下する。
本稿では,非自己回帰型プログラム生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-07T11:25:21Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Learning from Self-Sampled Correct and Partially-Correct Programs [96.66452896657991]
そこで本研究では,モデルが学習中にサンプリングを行い,自己サンプリングされた完全正当プログラムと部分正当プログラムの両方から学習することを提案する。
自己サンプリング型プログラムと部分修正型プログラムを併用することで,学習とサンプリングプロセスのガイドに役立てることができることを示す。
提案手法は,MLEを用いた単一の参照プログラムからの学習と比較して,パス@kの性能を3.1%から12.3%向上させる。
論文 参考訳(メタデータ) (2022-05-28T03:31:07Z) - Synthesize, Execute and Debug: Learning to Repair for Neural Program
Synthesis [81.54148730967394]
本稿では,合成,実行,デバッグの段階を組み込んだニューラルネットワーク生成フレームワークであるSEDを提案する。
SEDはまず、神経プログラムシンセサイザーコンポーネントを使用して初期プログラムを生成し、その後、神経プログラムデバッガを使用して生成されたプログラムを反復的に修復する。
挑戦的な入出力プログラム合成ベンチマークであるKarelでは、SEDはニューラルプログラムシンセサイザー自体のエラー率をかなりのマージンで削減し、デコードのための標準ビームサーチより優れている。
論文 参考訳(メタデータ) (2020-07-16T04:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。