論文の概要: VulGuard: An Unified Tool for Evaluating Just-In-Time Vulnerability Prediction Models
- arxiv url: http://arxiv.org/abs/2507.16685v1
- Date: Tue, 22 Jul 2025 15:18:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.17994
- Title: VulGuard: An Unified Tool for Evaluating Just-In-Time Vulnerability Prediction Models
- Title(参考訳): VulGuard: ジャスト・イン・タイムの脆弱性予測モデルを評価する統一ツール
- Authors: Duong Nguyen, Manh Tran-Duc, Thanh Le-Cong, Triet Huynh Minh Le, M. Ali Babar, Quyet-Thang Huynh,
- Abstract要約: VulGuardは、脆弱性予測(JIT-VP)研究のためのGitHubリポジトリからのコミットの抽出、処理、分析を効率化する自動化ツールである。
コミット履歴を自動的にマイニングし、きめ細かいコード変更、コミットメッセージ、ソフトウェアエンジニアリングメトリクスを抽出し、下流分析のためにフォーマットします。
- 参考スコア(独自算出の注目度): 3.4299920908334673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present VulGuard, an automated tool designed to streamline the extraction, processing, and analysis of commits from GitHub repositories for Just-In-Time vulnerability prediction (JIT-VP) research. VulGuard automatically mines commit histories, extracts fine-grained code changes, commit messages, and software engineering metrics, and formats them for downstream analysis. In addition, it integrates several state-of-the-art vulnerability prediction models, allowing researchers to train, evaluate, and compare models with minimal setup. By supporting both repository-scale mining and model-level experimentation within a unified framework, VulGuard addresses key challenges in reproducibility and scalability in software security research. VulGuard can also be easily integrated into the CI/CD pipeline. We demonstrate the effectiveness of the tool in two influential open-source projects, FFmpeg and the Linux kernel, highlighting its potential to accelerate real-world JIT-VP research and promote standardized benchmarking. A demo video is available at: https://youtu.be/j96096-pxbs
- Abstract(参考訳): 我々は、Just-In-Time脆弱性予測(JIT-VP)研究のためにGitHubリポジトリからコミットの抽出、処理、分析を効率化する自動化ツールであるVulGuardを紹介する。
VulGuardは自動的にコミット履歴をマイニングし、きめ細かいコード変更、コミットメッセージ、ソフトウェアエンジニアリングメトリクスを抽出し、下流分析のためにフォーマットする。
さらに、いくつかの最先端の脆弱性予測モデルを統合し、研究者は最小限のセットアップでモデルをトレーニング、評価、比較することができる。
統合されたフレームワーク内でのリポジトリスケールのマイニングとモデルレベルの実験の両方をサポートすることで、VulGuardは、ソフトウェアセキュリティ研究における再現性とスケーラビリティにおける重要な課題に対処する。
VulGuardはCI/CDパイプラインにも簡単に統合できる。
我々は,このツールの有効性を,FFmpegとLinuxカーネルという2つの有力なオープンソースプロジェクトで実証し,実世界のJIT-VP研究を加速し,標準化されたベンチマークを促進する可能性を強調した。
デモビデオは、https://youtu.be/j96096-pxbsで公開されている。
関連論文リスト
- A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - A Rusty Link in the AI Supply Chain: Detecting Evil Configurations in Model Repositories [9.095642871258455]
本研究は,Hugging Face上での悪意のある構成に関する最初の包括的研究である。
特に、元々モデルの設定を意図した設定ファイルは、不正なコードを実行するために利用することができる。
論文 参考訳(メタデータ) (2025-05-02T07:16:20Z) - T2VShield: Model-Agnostic Jailbreak Defense for Text-to-Video Models [88.63040835652902]
テキストからビデオモデルへの攻撃はジェイルブレイク攻撃に弱いため、特別な方法で安全メカニズムをバイパスし、有害または安全でないコンテンツの生成につながる。
我々は、ジェイルブレイクの脅威からテキストからビデオモデルを守るために設計された包括的でモデルに依存しない防衛フレームワークであるT2VShieldを提案する。
本手法は,既存の防御の限界を特定するために,入力,モデル,出力の段階を体系的に解析する。
論文 参考訳(メタデータ) (2025-04-22T01:18:42Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Automating the Detection of Code Vulnerabilities by Analyzing GitHub Issues [6.6681265451722895]
我々は、脆弱性検出に関連するGitHubの問題を分類するために特別に設計された新しいデータセットを紹介します。
結果は、早期脆弱性検出における現実世界のアプリケーションに対するこのアプローチの可能性を示している。
この作業は、オープンソースのソフトウェアエコシステムのセキュリティを強化する可能性がある。
論文 参考訳(メタデータ) (2025-01-09T14:13:39Z) - EnStack: An Ensemble Stacking Framework of Large Language Models for Enhanced Vulnerability Detection in Source Code [1.9374282535132379]
本稿では,自然言語処理(NLP)技術を用いた脆弱性検出を支援する,新たなアンサンブルスタックフレームワークであるEnStackを紹介する。
本手法は,コード理解に特化した複数の事前学習型大規模言語モデル(LLM)を相乗化する。
メタ分類器はそれぞれのLSMの強度を集約し、微妙で複雑な脆弱性を検知する包括的なモデルをもたらす。
論文 参考訳(メタデータ) (2024-11-25T16:47:10Z) - Beyond Static Tools: Evaluating Large Language Models for Cryptographic Misuse Detection [0.30693357740321775]
GPT 4-o-miniは、CryptoAPIとMASCデータセットの最先端の静的解析ツールを上回る。
本研究では, 静的解析の長所と短所をLCM駆動法と比較した。
論文 参考訳(メタデータ) (2024-11-14T19:33:08Z) - VulLibGen: Generating Names of Vulnerability-Affected Packages via a Large Language Model [13.96251273677855]
VulLibGenは、影響を受けるパッケージを直接生成するメソッドである。
脆弱性のあるパッケージを識別するための平均精度は0.806である。
私たちはGitHub Advisoryに60の脆弱性、影響のあるパッケージ>ペアを提出しました。
論文 参考訳(メタデータ) (2023-08-09T02:02:46Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - VulBERTa: Simplified Source Code Pre-Training for Vulnerability
Detection [1.256413718364189]
VulBERTaは、ソースコードのセキュリティ脆弱性を検出するためのディープラーニングアプローチである。
当社のアプローチでは,オープンソースのC/C++プロジェクトの実世界のコードに対して,独自のトークン化パイプラインを備えたRoBERTaモデルを事前トレーニングする。
複数のデータセットにまたがるバイナリおよびマルチクラス脆弱性検出タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2022-05-25T00:56:43Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。