論文の概要: Learning to Triage Taint Flows Reported by Dynamic Program Analysis in Node.js Packages
- arxiv url: http://arxiv.org/abs/2510.20739v1
- Date: Thu, 23 Oct 2025 16:58:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.432585
- Title: Learning to Triage Taint Flows Reported by Dynamic Program Analysis in Node.js Packages
- Title(参考訳): Node.jsパッケージの動的プログラム解析によるタレントフローの学習
- Authors: Ronghao Ni, Aidan Z. H. Yang, Min-Chien Hsu, Nuno Sabino, Limin Jia, Ruben Martins, Darion Cassel, Kevin Cheang,
- Abstract要約: プログラム分析ツールは、しばしば大量の脆弱性レポートを生成する。
本稿では,プログラム解析ツールによって報告される脆弱性の優先順位付けに機械学習を適用することができるかを検討する。
- 参考スコア(独自算出の注目度): 10.447259698656884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Program analysis tools often produce large volumes of candidate vulnerability reports that require costly manual review, creating a practical challenge: how can security analysts prioritize the reports most likely to be true vulnerabilities? This paper investigates whether machine learning can be applied to prioritizing vulnerabilities reported by program analysis tools. We focus on Node.js packages and collect a benchmark of 1,883 Node.js packages, each containing one reported ACE or ACI vulnerability. We evaluate a variety of machine learning approaches, including classical models, graph neural networks (GNNs), large language models (LLMs), and hybrid models that combine GNN and LLMs, trained on data based on a dynamic program analysis tool's output. The top LLM achieves $F_{1} {=} 0.915$, while the best GNN and classical ML models reaching $F_{1} {=} 0.904$. At a less than 7% false-negative rate, the leading model eliminates 66.9% of benign packages from manual review, taking around 60 ms per package. If the best model is tuned to operate at a precision level of 0.8 (i.e., allowing 20% false positives amongst all warnings), our approach can detect 99.2% of exploitable taint flows while missing only 0.8%, demonstrating strong potential for real-world vulnerability triage.
- Abstract(参考訳): プログラム分析ツールは、しばしば大量の脆弱性レポートを生成し、コストのかかる手作業によるレビューを必要とし、実践的な課題を生み出します。
本稿では,プログラム解析ツールによって報告される脆弱性の優先順位付けに機械学習を適用することができるかを検討する。
Node.jsパッケージに集中し、1,883のNode.jsパッケージのベンチマークを収集します。
動的プログラム解析ツールの出力に基づいてトレーニングされたデータに基づいて、古典的モデル、グラフニューラルネットワーク(GNN)、大規模言語モデル(LLM)、GNNとLLMを組み合わせたハイブリッドモデルなど、さまざまな機械学習アプローチを評価した。
上位のLLMは$F_{1} {=} 0.915$を獲得し、最高のGNNおよび古典的なMLモデルは$F_{1} {=} 0.904$に達する。
7%未満の偽陰性率で、先行モデルは、手作業によるレビューから66.9%の良性パッケージを排除し、1パッケージあたり約60ミリ秒を要した。
最良のモデルが0.8の精度で動作するように調整された場合(すなわち、すべての警告の中で20%の偽陽性を許容する)、我々のアプローチは、わずか0.8%の精度で悪用可能なテナントフローの99.2%を検出し、現実世界の脆弱性トリアージの強い可能性を示す。
関連論文リスト
- MICE for CATs: Model-Internal Confidence Estimation for Calibrating Agents with Tools [54.63478102768333]
十分に校正されたモデル信頼度は、潜在的な行動の報酬に対するリスクを測るために使用することができる。
本稿では,ツール呼び出し時の信頼度を評価するために,モデル内信頼度推定器(MICE)の新たなクラスを提案する。
論文 参考訳(メタデータ) (2025-04-28T18:06:38Z) - The Hitchhiker's Guide to Program Analysis, Part II: Deep Thoughts by LLMs [17.497629884237647]
BugLensは、バグ検出のための静的解析精度を大幅に向上させる、ポストリファインメントフレームワークである。
LLMは有望なコード理解能力を示すが、プログラム分析への直接の応用は信頼できない。
LLMは、セキュリティへの影響を評価し、ソースコードから制約を検証するため、構造化された推論ステップを通じてLLMをガイドする。
論文 参考訳(メタデータ) (2025-04-16T02:17:06Z) - CASTLE: Benchmarking Dataset for Static Code Analyzers and LLMs towards CWE Detection [2.5228276786940182]
本稿では,異なる手法の脆弱性検出能力を評価するためのベンチマークフレームワークであるCASTLEを紹介する。
我々は,25個のCWEをカバーする250個のマイクロベンチマークプログラムを手作りしたデータセットを用いて,静的解析ツール13,LLM10,形式検証ツール2を評価した。
論文 参考訳(メタデータ) (2025-03-12T14:30:05Z) - ProofAug: Efficient Neural Theorem Proving via Fine-grained Proof Structure Analysis [50.020850767257095]
本稿では,LLMに様々な粒度で自動化手法を付加するProofAugを提案する。
本手法は,オープンソースのDeep-math-7bベースモデルとIsabelle証明アシスタントを用いて,MiniF2Fベンチマークで検証した。
また、ProofAugのLean 4バージョンを実装し、Kimina-Prover-seek-Distill-1.5Bのパス@1のパフォーマンスを44.3%から50.4%に改善します。
論文 参考訳(メタデータ) (2025-01-30T12:37:06Z) - Data-Free Hard-Label Robustness Stealing Attack [67.41281050467889]
本稿では,Data-Free Hard-Label Robustness Stealing(DFHL-RS)攻撃について紹介する。
ターゲットモデルのハードラベルをクエリするだけで、モデル精度とロバスト性の両方を盗むことができる。
本手法は,AutoAttackに対して77.86%,頑健な39.51%の精度を実現する。
論文 参考訳(メタデータ) (2023-12-10T16:14:02Z) - VELVET: a noVel Ensemble Learning approach to automatically locate
VulnErable sTatements [62.93814803258067]
本稿では,ソースコード中の脆弱な文を見つけるための新しいアンサンブル学習手法であるVELVETを提案する。
我々のモデルは、グラフベースとシーケンスベースニューラルネットワークを組み合わせて、プログラムグラフの局所的およびグローバル的コンテキストを捕捉する。
VELVETは、合成データと実世界のデータに対して、それぞれ99.6%と43.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-12-20T22:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。