論文の概要: MulVuln: Enhancing Pre-trained LMs with Shared and Language-Specific Knowledge for Multilingual Vulnerability Detection
- arxiv url: http://arxiv.org/abs/2510.04397v1
- Date: Sun, 05 Oct 2025 23:33:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.629678
- Title: MulVuln: Enhancing Pre-trained LMs with Shared and Language-Specific Knowledge for Multilingual Vulnerability Detection
- Title(参考訳): MulVuln:多言語脆弱性検出のための共有および言語特化知識による事前学習型LMの強化
- Authors: Van Nguyen, Surya Nepal, Xingliang Yuan, Tingmin Wu, Fengchao Chen, Carsten Rudolph,
- Abstract要約: MULVULNは、複数の言語にわたるソースコードから学習する、新しい多言語脆弱性検出アプローチである。
現実世界の多言語ソフトウェアシステムにおいて、より堅牢で効果的な脆弱性検出を実現する。
特に、MULVULNはF1スコアがかなり高く、ベースライン法に比べて1.45%から23.59%改善されている。
- 参考スコア(独自算出の注目度): 22.197550174544627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software vulnerabilities (SVs) pose a critical threat to safety-critical systems, driving the adoption of AI-based approaches such as machine learning and deep learning for software vulnerability detection. Despite promising results, most existing methods are limited to a single programming language. This is problematic given the multilingual nature of modern software, which is often complex and written in multiple languages. Current approaches often face challenges in capturing both shared and language-specific knowledge of source code, which can limit their performance on diverse programming languages and real-world codebases. To address this gap, we propose MULVULN, a novel multilingual vulnerability detection approach that learns from source code across multiple languages. MULVULN captures both the shared knowledge that generalizes across languages and the language-specific knowledge that reflects unique coding conventions. By integrating these aspects, it achieves more robust and effective detection of vulnerabilities in real-world multilingual software systems. The rigorous and extensive experiments on the real-world and diverse REEF dataset, consisting of 4,466 CVEs with 30,987 patches across seven programming languages, demonstrate the superiority of MULVULN over thirteen effective and state-of-the-art baselines. Notably, MULVULN achieves substantially higher F1-score, with improvements ranging from 1.45% to 23.59% compared to the baseline methods.
- Abstract(参考訳): ソフトウェア脆弱性(SV)は、ソフトウェア脆弱性検出に機械学習やディープラーニングといったAIベースのアプローチを採用する上で、安全クリティカルなシステムに対して重大な脅威となる。
有望な結果にもかかわらず、既存のほとんどのメソッドは単一のプログラミング言語に限定されている。
現代のソフトウェアは複雑で、複数の言語で書かれることが多いため、これは問題である。
現在のアプローチは、ソースコードの共有知識と言語固有の知識の両方をキャプチャする上で、しばしば課題に直面します。
このギャップに対処するため,複数の言語にまたがるソースコードから学習する新たな多言語脆弱性検出手法であるMULVULNを提案する。
MULVULNは、言語をまたいで一般化する共有知識と、ユニークなコーディング規則を反映する言語固有の知識の両方をキャプチャする。
これらの側面を統合することで、現実世界の多言語ソフトウェアシステムの脆弱性をより堅牢で効果的に検出することができる。
7つのプログラミング言語にまたがる4,466のCVEと30,987のパッチからなるREEFデータセットに関する厳密で多様な実験は、13の有効かつ最先端のベースラインよりもMULVULNの方が優れていることを示した。
特に、MULVULNはF1スコアがかなり高く、ベースライン法に比べて1.45%から23.59%改善されている。
関連論文リスト
- Large Language Models for Multilingual Vulnerability Detection: How Far Are We? [13.269680075539135]
多言語脆弱性検出のための事前学習言語モデル(PLM)と大規模言語モデル(LLM)の有効性を評価する。
7つの言語にまたがる3万以上の現実世界の脆弱性修正パッチを使用して、機能レベルとラインレベルの両方でモデルパフォーマンスを評価します。
GPT-4oはインストラクションチューニングと数発のプロンプトによって強化され、他の評価モデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-06-09T07:27:49Z) - A Preliminary Study of Large Language Models for Multilingual Vulnerability Detection [13.269680075539135]
言語モデル(LLM)は言語に依存しない機能と意味理解の強化を提供する。
大規模言語モデル(LLM)の最近の進歩は、言語に依存しない機能と意味理解の強化を提供する。
以上の結果から, PLM CodeT5Pは多言語脆弱性検出において最高の性能を発揮することが明らかとなった。
論文 参考訳(メタデータ) (2025-05-12T09:19:31Z) - MrGuard: A Multilingual Reasoning Guardrail for Universal LLM Safety [56.77103365251923]
大規模言語モデル(LLM)は、ジェイルブレイクのような敵の攻撃を受けやすい。
この脆弱性は、多言語セーフティアライメントされたデータが制限される多言語設定で悪化する。
素早い分類のための多言語ガードレールを提案する。
論文 参考訳(メタデータ) (2025-04-21T17:15:06Z) - MVD: A Multi-Lingual Software Vulnerability Detection Framework [1.0771072841012608]
MVD - 革新的な多言語脆弱性検出フレームワークを紹介する。
このフレームワークは、様々な言語の脆弱性データから同時に学習することで、複数の言語にまたがる脆弱性を検出する能力を得る。
本フレームワークは,多言語脆弱性検出における最先端手法を,PR-AUCの83.7%から193.6%で大幅に上回っている。
論文 参考訳(メタデータ) (2024-12-09T02:58:10Z) - Large Language Models for Secure Code Assessment: A Multi-Language Empirical Study [1.9116784879310031]
GPT-4oは,数ショット設定を用いて,最も高い脆弱性検出とCWE分類のスコアを達成できることを示す。
我々は、VSCodeと統合されたCODEGUARDIANと呼ばれるライブラリを開発し、開発者はLLM支援リアルタイム脆弱性分析を行うことができる。
論文 参考訳(メタデータ) (2024-08-12T18:10:11Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - Multi-level Contrastive Learning for Cross-lingual Spoken Language
Understanding [90.87454350016121]
コントラスト学習のための難解なサンプルを, あらゆるレベルで生成するコードスイッチング手法を開発した。
言語間知識伝達にラベルセマンティクスを利用するラベル認識ジョイントモデルを開発した。
論文 参考訳(メタデータ) (2022-05-07T13:44:28Z) - Security Vulnerability Detection Using Deep Learning Natural Language
Processing [1.4591078795663772]
ソースコードをテキストとして扱う自然言語処理(NLP)問題としてソフトウェア脆弱性検出をモデル化する。
トレーニングとテストのために、123タイプの脆弱性を持つ$C$プログラミング言語で10000以上のファイルのデータセットを構築しました。
実験は、セキュリティ脆弱性の検出において93%以上の精度で最高のパフォーマンスを生み出します。
論文 参考訳(メタデータ) (2021-05-06T01:28:21Z) - X-FACTR: Multilingual Factual Knowledge Retrieval from Pretrained
Language Models [103.75890012041366]
言語モデル(LM)は、事実の知識を捉えるのに驚くほど成功した。
しかし、LMの実際の表現能力の研究は、ほぼ間違いなく英語で行われている。
我々は23の語型的多様言語に対するクローゼスタイルプローブのベンチマークを作成する。
論文 参考訳(メタデータ) (2020-10-13T05:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。