論文の概要: Directed Greybox Fuzzing via Large Language Model
- arxiv url: http://arxiv.org/abs/2505.03425v1
- Date: Tue, 06 May 2025 11:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.343879
- Title: Directed Greybox Fuzzing via Large Language Model
- Title(参考訳): 大規模言語モデルによる指示型Greyboxファジング
- Authors: Hanxiang Xu, Yanjie Zhao, Haoyu Wang,
- Abstract要約: HGFuzzerは、パス制約問題をターゲットコード生成タスクに変換する自動フレームワークである。
実世界の脆弱性20件についてHGFuzzerを評価し,最初の1分以内に11件を含む17件をトリガーした。
HGFuzzerは9つの既知の脆弱性を発見し、そのすべてにCVE IDが割り当てられた。
- 参考スコア(独自算出の注目度): 5.667013605202579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Directed greybox fuzzing (DGF) focuses on efficiently reaching specific program locations or triggering particular behaviors, making it essential for tasks like vulnerability detection and crash reproduction. However, existing methods often suffer from path explosion and randomness in input mutation, leading to inefficiencies in exploring and exploiting target paths. In this paper, we propose HGFuzzer, an automatic framework that leverages the large language model (LLM) to address these challenges. HGFuzzer transforms path constraint problems into targeted code generation tasks, systematically generating test harnesses and reachable inputs to reduce unnecessary exploration paths significantly. Additionally, we implement custom mutators designed specifically for target functions, minimizing randomness and improving the precision of directed fuzzing. We evaluated HGFuzzer on 20 real-world vulnerabilities, successfully triggering 17, including 11 within the first minute, achieving a speedup of at least 24.8x compared to state-of-the-art directed fuzzers. Furthermore, HGFuzzer discovered 9 previously unknown vulnerabilities, all of which were assigned CVE IDs, demonstrating the effectiveness of our approach in identifying real-world vulnerabilities.
- Abstract(参考訳): Directed graybox fuzzing (DGF)は、特定のプログラムロケーションに効率よく到達したり、特定の振る舞いをトリガーすることに焦点を当てており、脆弱性検出やクラッシュ再現といったタスクに必須である。
しかし、既存の手法は、しばしば入力突然変異における経路の爆発とランダム性に悩まされ、標的経路の探索と利用において非効率な結果をもたらす。
本稿では,これらの課題に対処するために,大規模言語モデル(LLM)を活用する自動フレームワークであるHGFuzzerを提案する。
HGFuzzerはパス制約問題を対象のコード生成タスクに変換し、システム的にテストハーネスと到達可能な入力を生成し、不要な探索パスを大幅に削減する。
さらに,ターゲット関数に特化して設計されたカスタムミュータを実装し,ランダム性を最小化し,ファジィの精度を向上させる。
我々はHGFuzzerを20の現実世界の脆弱性で評価し,最初の1分以内に11個を含む17個をトリガーし,最先端の指示ファザに比べて少なくとも24.8倍のスピードアップを達成した。
さらにHGFuzzerは、CVE IDが割り当てられた9つの既知の脆弱性を発見し、実際の脆弱性を特定するアプローチの有効性を実証した。
関連論文リスト
- ISC4DGF: Enhancing Directed Grey-box Fuzzing with LLM-Driven Initial Seed Corpus Generation [32.6118621456906]
ディレクトグレーボックスファジィング(DGF)は、特定の脆弱性に焦点を絞って必須となっている。
ISC4DGFはLarge Language Models (LLMs) を用いてDGFのための最適化された初期シードコーパスを生成する
ISC4DGFは35.63倍のスピードアップと616.10倍の目標到達を達成した。
論文 参考訳(メタデータ) (2024-09-22T06:27:28Z) - LiTelFuzz : Swarms Fuzzing Based on Linear Temporal Logic Constraints [16.59887508016901]
マルチロボット群における論理的欠陥を発見するための形式的検証手法を提案する。
具体的には,これらの制約に基づいて,SwarmとSwarmの線形時間論理制約を抽象化する。
このアイデアに基づいて、LiTelFuzzをベースとした単一攻撃ドローンファジリングスキームと複数攻撃ドローンスキームを実装した。
論文 参考訳(メタデータ) (2024-09-07T06:46:23Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - FOX: Coverage-guided Fuzzing as Online Stochastic Control [13.3158115776899]
ファジィング(fuzzing)は、ターゲットプログラムに対してランダムなテスト入力を生成してソフトウェア脆弱性を発見する効果的な手法である。
本稿では、スケジューラとミュータレータコンポーネントに焦点をあて、既存のカバレッジ誘導ファザの限界に対処する。
本稿では、制御理論アプローチの概念実証実装であるFOXについて、業界標準ファザと比較する。
論文 参考訳(メタデータ) (2024-06-06T21:21:05Z) - Contrastive Pseudo Learning for Open-World DeepFake Attribution [67.58954345538547]
オープンワールド・ディープフェイク (OW-DFA) と呼ばれる新しいベンチマークを導入する。
OW-DFAタスクにおけるコントラスト擬似学習(Contrastive Pseudo Learning, CPL)と呼ばれる新しいフレームワークを提案する。1)グローバル・ローカル投票モジュールを導入し、異なる操作領域の偽顔の特徴的アライメントを誘導し、2)信頼に基づくソフト擬似ラベル戦略を設計し、類似の手法による非ラベル集合における擬似雑音の軽減を図る。
論文 参考訳(メタデータ) (2023-09-20T08:29:22Z) - TOPr: Enhanced Static Code Pruning for Fast and Precise Directed Fuzzing [8.32371059323843]
Directed Fuzzingは、特定のターゲットのプログラムロケーションを探索する動的テスト技術である。
現在のアプローチは、間接的な制御フローをキャプチャできない不正確である。
ToPrの強化プルーニングは,(1)速度(222%, 73%高いテストケーススループット),(2)到達性(149%, 9%以上の対象対象カバレッジ),(3)バグ発見時間(それぞれ8%)において,これらのファザよりも優れていた。
論文 参考訳(メタデータ) (2023-09-18T06:59:34Z) - Reinforcement Learning for Agile Active Target Sensing with a UAV [10.070339628481445]
本稿では,情報トラジェクトリを計画するための深層強化学習手法を開発する。
ターゲット状態に対する現在の信念を活用し、高忠実度分類のための不正確なセンサーモデルを含む。
提案手法の特異な特徴は,真の目標分布から様々な量の偏差が生じることにある。
論文 参考訳(メタデータ) (2022-12-16T01:01:17Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Regressive Domain Adaptation for Unsupervised Keypoint Detection [67.2950306888855]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的とする。
本稿では,教師なしキーポイント検出のためのレグレッシブドメイン適応(RegDA)法を提案する。
提案手法は,異なるデータセット上のPCKにおいて,8%から11%の大幅な改善をもたらす。
論文 参考訳(メタデータ) (2021-03-10T16:45:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。