論文の概要: Scheduzz: Constraint-based Fuzz Driver Generation with Dual Scheduling
- arxiv url: http://arxiv.org/abs/2507.18289v1
- Date: Thu, 24 Jul 2025 10:51:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.423944
- Title: Scheduzz: Constraint-based Fuzz Driver Generation with Dual Scheduling
- Title(参考訳): Scheduzz:デュアルスケジューリングによる制約ベースのファズドライバ生成
- Authors: Yan Li, Wenzhang Yang, Yuekun Wang, Jian Gao, Shaohua Wang, Yinxing Xue, Lijun Zhang,
- Abstract要約: 本稿では,ライブラリの合理的使用法を理解し,APIの組み合わせ制約を抽出するために,新しいライブラリファジリング手法であるSchudzzを提案する。
Scheduzzは計算オーバーヘッドを大幅に削減し、21のライブラリのうち16でUTopiaを上回っている。
最新技術であるCKGFuzzer、Promptfuzz、手作りのOSS-Fuzzよりも1.62倍、1.50倍、および1.89倍高いカバレッジを実現している。
- 参考スコア(独自算出の注目度): 16.453200060615234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fuzzing a library requires experts to understand the library usage well and craft high-quality fuzz drivers, which is tricky and tedious. Therefore, many techniques have been proposed to automatically generate fuzz drivers. However, they fail to generate rational fuzz drivers due to the lack of adherence to proper library usage conventions, such as ensuring a resource is closed after being opened. To make things worse, existing library fuzzing techniques unconditionally execute each driver, resulting in numerous irrational drivers that waste computational resources while contributing little coverage and generating false positive bug reports. To tackle these challenges, we propose a novel automatic library fuzzing technique, Scheduzz, an LLM-based library fuzzing technique. It leverages LLMs to understand rational usage of libraries and extract API combination constraints. To optimize computational resource utilization, a dual scheduling framework is implemented to efficiently manage API combinations and fuzz drivers. The framework models driver generation and the corresponding fuzzing campaign as an online optimization problem. Within the scheduling loop, multiple API combinations are selected to generate fuzz drivers, while simultaneously, various optimized fuzz drivers are scheduled for execution or suspension. We implemented Scheduzz and evaluated it in 33 real-world libraries. Compared to baseline approaches, Scheduzz significantly reduces computational overhead and outperforms UTopia on 16 out of 21 libraries. It achieves 1.62x, 1.50x, and 1.89x higher overall coverage than the state-of-the-art techniques CKGFuzzer, Promptfuzz, and the handcrafted project OSS-Fuzz, respectively. In addition, Scheduzz discovered 33 previously unknown bugs in these well-tested libraries, 3 of which have been assigned CVEs.
- Abstract(参考訳): ライブラリのファジィ化には,ライブラリの使用状況を十分に理解し,高品質なファジィドライバを開発する必要がある。
そのため,ファジィドライバを自動生成する技術が数多く提案されている。
しかし、オープン後のリソースのクローズなど、適切なライブラリ使用規約の遵守が欠如しているため、合理的なファズドライバを生成できない。
さらに悪いことに、既存のライブラリファジィング技術は各ドライバを無条件で実行し、多くの不合理なドライバが計算リソースを浪費し、カバレッジをほとんど提供せず、偽陽性のバグレポートを生成する。
これらの課題に対処するために,LLMベースのライブラリファジリング技術であるScheduzzを提案する。
LLMを活用して、ライブラリの合理的使用法を理解し、APIの組み合わせ制約を抽出する。
計算資源の利用を最適化するために、APIの組み合わせとファズドライバを効率的に管理する2つのスケジューリングフレームワークを実装した。
フレームワークはドライバ生成とそれに対応するファジィキャンペーンをオンライン最適化問題としてモデル化する。
スケジューリングループ内では、ファズドライバを生成するために複数のAPIの組み合わせが選択され、同時に、様々な最適化されたファズドライバが実行または停止のためにスケジュールされる。
Scheduzzを実装し、33の現実世界のライブラリで評価した。
ベースラインアプローチと比較して、Scheduzzは計算オーバーヘッドを大幅に削減し、21のライブラリのうち16でUTopiaを上回っている。
最新技術であるCKGFuzzer、Promptfuzz、手作りのOSS-Fuzzよりも1.62倍、1.50倍、および1.89倍高いカバレッジを実現している。
さらに、Scheduzz氏はこれらのよくテストされたライブラリで33の既知のバグを発見し、そのうち3つはCVEに割り当てられた。
関連論文リスト
- LibLMFuzz: LLM-Augmented Fuzz Target Generation for Black-box Libraries [0.0]
LibLMFuzzは、クローズドソースライブラリのファジングに関連するコストを削減するフレームワークである。
LibLMFuzzは広く使われている4つのLinuxライブラリでテストされ、558のfuzz-able API関数に対して構文的に正しいドライバを作成した。
論文 参考訳(メタデータ) (2025-07-20T17:38:51Z) - Exposing the Copycat Problem of Imitation-based Planner: A Novel Closed-Loop Simulator, Causal Benchmark and Joint IL-RL Baseline [49.51385135697656]
機械学習ベースの計画では、模倣学習(IL)が一般的なアルゴリズムである。
主に、教師付き軌跡データから直接ポリシーを学習する。
学習した方針が根本的駆動原理を真に理解しているかどうかを判断することは依然として困難である。
本研究は、模倣と強化学習の両方をサポートする新しいクローズドループシミュレータを提案する。
論文 参考訳(メタデータ) (2025-04-20T18:51:26Z) - Your Fix Is My Exploit: Enabling Comprehensive DL Library API Fuzzing with Large Language Models [49.214291813478695]
AIアプリケーションで広く使用されているディープラーニング(DL)ライブラリは、オーバーフローやバッファフリーエラーなどの脆弱性を含むことが多い。
従来のファジィングはDLライブラリの複雑さとAPIの多様性に悩まされている。
DLライブラリのためのLLM駆動ファジィ手法であるDFUZZを提案する。
論文 参考訳(メタデータ) (2025-01-08T07:07:22Z) - CKGFuzzer: LLM-Based Fuzz Driver Generation Enhanced By Code Knowledge Graph [29.490817477791357]
本稿では,コード知識グラフによって駆動され,インテリジェントエージェントシステムによって駆動されるファズテスト手法を提案する。
コードナレッジグラフは、そのグラフの各ノードがコードエンティティを表す、プログラム間解析によって構築される。
CKGFuzzerは最先端技術と比較してコードカバレッジが平均8.73%向上した。
論文 参考訳(メタデータ) (2024-11-18T12:41:16Z) - $\mathbb{USCD}$: Improving Code Generation of LLMs by Uncertainty-Aware Selective Contrastive Decoding [64.00025564372095]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示している。
幻覚の影響(例えば出力ノイズ)は、LLMが1パスで高品質なコードを生成するのを難しくする。
単純かつ効果的なtextbfuncertainty-aware textbf select textbfcontrastive textbfdecodingを提案する。
論文 参考訳(メタデータ) (2024-09-09T02:07:41Z) - FuzzCoder: Byte-level Fuzzing Test via Large Language Model [46.18191648883695]
我々は,攻撃を成功させることで,入力ファイルのパターンを学習するために,微調整された大言語モデル(FuzzCoder)を採用することを提案する。
FuzzCoderは、プログラムの異常な動作を引き起こすために、入力ファイル内の突然変異位置と戦略位置を予測することができる。
論文 参考訳(メタデータ) (2024-09-03T14:40:31Z) - Prompt Fuzzing for Fuzz Driver Generation [6.238058387665971]
本稿では,プロンプトファジングのためのカバーガイドファジングであるPromptFuzzを提案する。
未発見のライブラリコードを探索するためにファズドライバを反復的に生成する。
PromptFuzzはOSS-FuzzとHopperの2倍のブランチカバレッジを達成した。
論文 参考訳(メタデータ) (2023-12-29T16:43:51Z) - HOPPER: Interpretative Fuzzing for Libraries [6.36596812288503]
HOPPERはドメイン知識を必要とせずにライブラリをファズできる。
ライブラリファジィングの問題をインタプリタファジィングの問題に変換する。
論文 参考訳(メタデータ) (2023-09-07T06:11:18Z) - How Effective Are They? Exploring Large Language Model Based Fuzz Driver Generation [31.77886516971502]
本研究は,LLMを用いてファズドライバを効果的に生成する上で重要な課題を対象とした,最初の詳細な研究である。
我々の研究は、736,430個のファジィドライバの評価を行い、トークンコストは0.85億ドル(8000ドル以上)だった。
我々の洞察はOSS-Fuzz-Genプロジェクトを改善するために実装され、業界におけるファズドライバの実践的生成を促進しました。
論文 参考訳(メタデータ) (2023-07-24T01:49:05Z) - Salesforce CausalAI Library: A Fast and Scalable Framework for Causal
Analysis of Time Series and Tabular Data [76.85310770921876]
観測データを用いた因果解析のためのオープンソースライブラリであるSalesforce CausalAI Libraryを紹介した。
このライブラリの目標は、因果関係の領域における様々な問題に対して、迅速かつ柔軟なソリューションを提供することである。
論文 参考訳(メタデータ) (2023-01-25T22:42:48Z) - FastLR: Non-Autoregressive Lipreading Model with Integrate-and-Fire [74.04394069262108]
我々は,全てのターゲットトークンを同時に生成する非自己回帰(NAR)リップリーダーモデルであるFastLRを提案する。
FastLRは最先端のリップリーダーモデルと比較して10.97$times$のスピードアップを実現している。
論文 参考訳(メタデータ) (2020-08-06T08:28:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。