論文の概要: StagedVulBERT: Multi-Granular Vulnerability Detection with a Novel Pre-trained Code Model
- arxiv url: http://arxiv.org/abs/2410.05766v1
- Date: Tue, 8 Oct 2024 07:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 12:59:37.072510
- Title: StagedVulBERT: Multi-Granular Vulnerability Detection with a Novel Pre-trained Code Model
- Title(参考訳): StagedVulBERT:新しい事前学習符号モデルによる多角的脆弱性検出
- Authors: Yuan Jiang, Yujian Zhang, Xiaohong Su, Christoph Treude, Tiantian Wang,
- Abstract要約: 本研究では,新たな脆弱性検出フレームワークStagedVulBERTを紹介する。
CodeBERT-HLSコンポーネントはトークンレベルとステートメントレベルの両方でセマンティクスを同時にキャプチャするために設計されている。
粗粒度の脆弱性検出では、StagedVulBERTは92.26%のF1スコアを獲得し、最高のパフォーマンスメソッドよりも6.58%改善している。
- 参考スコア(独自算出の注目度): 13.67394549308693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of pre-trained model-based vulnerability detection methods has significantly advanced the field of automated vulnerability detection. However, these methods still face several challenges, such as difficulty in learning effective feature representations of statements for fine-grained predictions and struggling to process overly long code sequences. To address these issues, this study introduces StagedVulBERT, a novel vulnerability detection framework that leverages a pre-trained code language model and employs a coarse-to-fine strategy. The key innovation and contribution of our research lies in the development of the CodeBERT-HLS component within our framework, specialized in hierarchical, layered, and semantic encoding. This component is designed to capture semantics at both the token and statement levels simultaneously, which is crucial for achieving more accurate multi-granular vulnerability detection. Additionally, CodeBERT-HLS efficiently processes longer code token sequences, making it more suited to real-world vulnerability detection. Comprehensive experiments demonstrate that our method enhances the performance of vulnerability detection at both coarse- and fine-grained levels. Specifically, in coarse-grained vulnerability detection, StagedVulBERT achieves an F1 score of 92.26%, marking a 6.58% improvement over the best-performing methods. At the fine-grained level, our method achieves a Top-5% accuracy of 65.69%, which outperforms the state-of-the-art methods by up to 75.17%.
- Abstract(参考訳): 事前訓練されたモデルに基づく脆弱性検出手法の出現は、自動脆弱性検出の分野を大幅に進歩させた。
しかし、これらの手法は、細かな予測のためのステートメントの効率的な特徴表現の学習の難しさや、過度に長いコードシーケンスを処理するのに苦労することなど、いくつかの課題に直面している。
これらの問題に対処するため、本研究では、事前訓練されたコード言語モデルを活用し、粗大な戦略を採用する、新たな脆弱性検出フレームワークであるStagedVulBERTを紹介した。
私たちの研究の重要な革新と貢献は、階層的、階層的、セマンティックエンコーディングに特化したCodeBERT-HLSコンポーネントの開発にあります。
このコンポーネントはトークンとステートメントの両方のレベルでセマンティクスを同時にキャプチャするように設計されている。
さらに、CodeBERT-HLSはより長いコードトークンシーケンスを効率的に処理し、現実世界の脆弱性検出により適している。
包括的実験により, 粗粒度および細粒度レベルでの脆弱性検出性能が向上することが示された。
具体的には、粗粒度の脆弱性検出において、StagedVulBERTは92.26%のF1スコアを獲得し、最高のパフォーマンスメソッドよりも6.58%改善している。
細粒度レベルでは,65.69%の精度を達成し,最先端の手法よりも75.17%向上した。
関連論文リスト
- Automated Vulnerability Detection Using Deep Learning Technique [1.1710022685486914]
この研究は、特にCodeBERTの高度な文脈理解によって、ディープラーニング技術が脆弱性検出を大幅に改善できることを実証している。
提案手法では,ソースコードをベクトル表現に変換し,Long Short-Term Memory(LSTM)モデルを用いて脆弱性パターンを識別する。
論文 参考訳(メタデータ) (2024-10-29T11:51:51Z) - Enhancing Pre-Trained Language Models for Vulnerability Detection via Semantic-Preserving Data Augmentation [4.374800396968465]
本稿では,脆弱性検出のための事前学習言語モデルの性能向上を目的としたデータ拡張手法を提案する。
一連の代表的なコード事前訓練モデルの微調整に当社のデータセットを組み込むことで、最大10.1%の精度向上と23.6%のF1増加を達成することができる。
論文 参考訳(メタデータ) (2024-09-30T21:44:05Z) - Vulnerability Detection with Code Language Models: How Far Are We? [40.455600722638906]
PrimeVulは、脆弱性検出のためのコードLMのトレーニングと評価のための新しいデータセットである。
これは、人間の検証されたベンチマークに匹敵するラベルの精度を達成する、新しいデータラベリング技術を含んでいる。
また、厳密なデータ重複解消戦略と時系列データ分割戦略を実装して、データの漏洩問題を軽減している。
論文 参考訳(メタデータ) (2024-03-27T14:34:29Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - Can An Old Fashioned Feature Extraction and A Light-weight Model Improve
Vulnerability Type Identification Performance? [6.423483122892239]
脆弱性型識別(VTI)の問題点について検討する。
我々は、大規模な脆弱性セットに基づいて、VTIのためのよく知られた、先進的な事前訓練モデルの性能を評価する。
ベースラインアプローチの予測を洗練させるために,軽量な独立コンポーネントを導入する。
論文 参考訳(メタデータ) (2023-06-26T14:28:51Z) - Deep-Learning-based Vulnerability Detection in Binary Executables [0.0]
本稿では,リカレントニューラルネットワークを用いた教師付き深層学習手法を提案する。
LLVM中間表現を標準化した形で、脆弱なコードの50,651個のデータセットを使用する。
任意の脆弱性の存在を検出するためにバイナリ分類が確立され、正確な脆弱性を特定するためにマルチクラスモデルが訓練された。
論文 参考訳(メタデータ) (2022-11-25T10:33:33Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。