論文の概要: From Coverage to Causes: Data-Centric Fuzzing for JavaScript Engines
- arxiv url: http://arxiv.org/abs/2512.18102v1
- Date: Fri, 19 Dec 2025 22:15:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.188538
- Title: From Coverage to Causes: Data-Centric Fuzzing for JavaScript Engines
- Title(参考訳): カバレッジから原因へ:JavaScriptエンジンのためのデータ中心ファジィ
- Authors: Kishan Kumar Ganguly, Tim Menzies,
- Abstract要約: 多数のプログラム状態と実行パスのため、モダンなJavaScriptエンジンの排他的ファズリングは実現不可能である。
これは、カバレッジをデータ指向推論に置き換える自動データ駆動アプローチである。
- 参考スコア(独自算出の注目度): 4.282746516699565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context: Exhaustive fuzzing of modern JavaScript engines is infeasible due to the vast number of program states and execution paths. Coverage-guided fuzzers waste effort on low-risk inputs, often ignoring vulnerability-triggering ones that do not increase coverage. Existing heuristics proposed to mitigate this require expert effort, are brittle, and hard to adapt. Objective: We propose a data-centric, LLM-boosted alternative that learns from historical vulnerabilities to automatically identify minimal static (code) and dynamic (runtime) features for detecting high-risk inputs. Method: Guided by historical V8 bugs, iterative prompting generated 115 static and 49 dynamic features, with the latter requiring only five trace flags, minimizing instrumentation cost. After feature selection, 41 features remained to train an XGBoost model to predict high-risk inputs during fuzzing. Results: Combining static and dynamic features yields over 85% precision and under 1% false alarms. Only 25% of these features are needed for comparable performance, showing that most of the search space is irrelevant. Conclusion: This work introduces feature-guided fuzzing, an automated data-driven approach that replaces coverage with data-directed inference, guiding fuzzers toward high-risk states for faster, targeted, and reproducible vulnerability discovery. To support open science, all scripts and data are available at https://github.com/KKGanguly/DataCentricFuzzJS .
- Abstract(参考訳): コンテキスト: 多数のプログラム状態と実行パスのため、現代的なJavaScriptエンジンの排他的ファジィは実現不可能である。
カバー誘導ファズナーはリスクの低い入力を無駄にし、カバーを増やさない脆弱性を無視することが多い。
これを緩和するために提案された既存のヒューリスティックは、専門家の努力を必要とし、脆く、適応が難しい。
目的: リスクの高い入力を検知するための最小限の静的(コード)機能と動的(ランタイム)機能を自動的に識別するために,過去の脆弱性から学習するデータ中心のLLMベースの代替手段を提案する。
メソッド: 歴史的なV8バグによってガイドされ、反復的なプロンプトによって115の静的および49の動的特徴が生成される。
機能選択後、41の機能は、ファジング中の高リスク入力を予測するためにXGBoostモデルを訓練するために残った。
結果:静的特徴と動的特徴を組み合わせると、精度は85%以上、誤警報は1%以下になる。
これらの機能の25%だけが同等のパフォーマンスに必要であり、検索スペースの大部分が無関係であることを示している。
結論: この研究は機能誘導型ファジィングを導入し、カバレッジをデータ指向の推論に置き換える自動データ駆動型アプローチを導入し、高速でターゲットを絞った再現可能な脆弱性発見のためにファジィアを高リスク状態に誘導する。
オープンサイエンスをサポートするために、すべてのスクリプトとデータはhttps://github.com/KKGanguly/DataCentricFuzzJSで入手できる。
関連論文リスト
- DiffuGuard: How Intrinsic Safety is Lost and Found in Diffusion Large Language Models [50.21378052667732]
我々は、ステップ内およびステップ間ダイナミクスという2つの異なる次元にわたるジェイルブレイク攻撃に対して、dLLM脆弱性の詳細な分析を行う。
デュアルステージアプローチによる脆弱性に対処する,トレーニング不要な防御フレームワークであるDiffuGuardを提案する。
論文 参考訳(メタデータ) (2025-09-29T05:17:10Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Poster: Machine Learning for Vulnerability Detection as Target Oracle in Automated Fuzz Driver Generation [0.0]
脆弱性検出では、機械学習は効果的な静的解析手法として用いられてきたが、偽陽性のかなりの頻度に悩まされている。
本稿では,(1)脆弱性検出モデルに機械学習を活用して潜在的な脆弱性を識別し,(2)ファズドライバを自動生成し,(3)ターゲットオラクルが推論する脆弱性を確認できるバグを見つけるために,対象関数をファズ処理する,というファズドライバ自動生成ワークフローを提案する。
論文 参考訳(メタデータ) (2025-05-02T09:02:36Z) - CKGFuzzer: LLM-Based Fuzz Driver Generation Enhanced By Code Knowledge Graph [29.490817477791357]
本稿では,コード知識グラフによって駆動され,インテリジェントエージェントシステムによって駆動されるファズテスト手法を提案する。
コードナレッジグラフは、そのグラフの各ノードがコードエンティティを表す、プログラム間解析によって構築される。
CKGFuzzerは最先端技術と比較してコードカバレッジが平均8.73%向上した。
論文 参考訳(メタデータ) (2024-11-18T12:41:16Z) - Camouflage is all you need: Evaluating and Enhancing Language Model
Robustness Against Camouflage Adversarial Attacks [53.87300498478744]
自然言語処理(NLP)における敵攻撃の意義
本研究は、脆弱性評価とレジリエンス向上という2つの異なる段階において、この課題を体系的に探求する。
結果として、パフォーマンスとロバスト性の間のトレードオフが示唆され、いくつかのモデルは、ロバスト性を確保しながら、同様のパフォーマンスを維持している。
論文 参考訳(メタデータ) (2024-02-15T10:58:22Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Enhancing Cross-Dataset Performance of Distracted Driving Detection With Score Softmax Classifier And Dynamic Gaussian Smoothing Supervision [6.891556476231427]
ディープニューラルネットワークは、車内ドライバのリアルタイム監視を可能にし、邪魔や疲労、潜在的な危険のタイムリーな予測を容易にする。
最近の研究では、限られたデータサンプルとバックグラウンドノイズにより、信頼性の低いクロスデータセットドライバの動作認識が明らかにされている。
Score-Softmax分類器を提案し、カテゴリ独立性を高めてモデル過信を低減する。
論文 参考訳(メタデータ) (2023-10-08T15:28:01Z) - Uncovering the Limits of Machine Learning for Automatic Vulnerability Detection [12.529028629599349]
本稿では,ML4VD技術の真の性能と限界をよりよく評価するための新しいベンチマーク手法を提案する。
6つのML4VD技術と2つのデータセットを使用して、(a)テストデータの脆弱性を予測するために、最先端のモデルが無関係な機能に過度に適合していること、(b)データ拡張によって得られるパフォーマンスが、トレーニング中に適用される特定の拡張を超えて一般化されないことを発見した。
論文 参考訳(メタデータ) (2023-06-28T08:41:39Z) - VELVET: a noVel Ensemble Learning approach to automatically locate
VulnErable sTatements [62.93814803258067]
本稿では,ソースコード中の脆弱な文を見つけるための新しいアンサンブル学習手法であるVELVETを提案する。
我々のモデルは、グラフベースとシーケンスベースニューラルネットワークを組み合わせて、プログラムグラフの局所的およびグローバル的コンテキストを捕捉する。
VELVETは、合成データと実世界のデータに対して、それぞれ99.6%と43.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-12-20T22:45:27Z) - MINIMAL: Mining Models for Data Free Universal Adversarial Triggers [57.14359126600029]
我々は、NLPモデルから入力非依存の逆のトリガーをマイニングするための、新しいデータフリーアプローチ、MINIMALを提案する。
我々はスタンフォード・センティメント・ツリーバンクの正のクラスを93.6%から9.6%に減らした。
SNLI(Stanford Natural Language Inference)では、このシングルワードトリガーによって、エンターメントクラスの精度が90.95%から0.6%未満に低下する。
論文 参考訳(メタデータ) (2021-09-25T17:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。