論文の概要: A Systematic Literature Review on Detecting Software Vulnerabilities with Large Language Models
- arxiv url: http://arxiv.org/abs/2507.22659v1
- Date: Wed, 30 Jul 2025 13:17:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.220432
- Title: A Systematic Literature Review on Detecting Software Vulnerabilities with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたソフトウェア脆弱性検出に関する体系的文献レビュー
- Authors: Sabrina Kaniewski, Fabian Schmidt, Markus Enzweiler, Michael Menth, Tobias Heer,
- Abstract要約: ソフトウェア工学における大規模言語モデル(LLM)は、ソフトウェア脆弱性検出への関心を喚起している。
この分野の急速な発展は、断片化された研究の風景を生み出した。
この断片化は、最先端技術の明確な概要を得るのを困難にし、研究を有意義に比較し分類する。
- 参考スコア(独自算出の注目度): 2.518519330408713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing adoption of Large Language Models (LLMs) in software engineering has sparked interest in their use for software vulnerability detection. However, the rapid development of this field has resulted in a fragmented research landscape, with diverse studies that are difficult to compare due to differences in, e.g., system designs and dataset usage. This fragmentation makes it difficult to obtain a clear overview of the state-of-the-art or compare and categorize studies meaningfully. In this work, we present a comprehensive systematic literature review (SLR) of LLM-based software vulnerability detection. We analyze 227 studies published between January 2020 and June 2025, categorizing them by task formulation, input representation, system architecture, and adaptation techniques. Further, we analyze the datasets used, including their characteristics, vulnerability coverage, and diversity. We present a fine-grained taxonomy of vulnerability detection approaches, identify key limitations, and outline actionable future research opportunities. By providing a structured overview of the field, this review improves transparency and serves as a practical guide for researchers and practitioners aiming to conduct more comparable and reproducible research. We publicly release all artifacts and maintain a living repository of LLM-based software vulnerability detection studies.
- Abstract(参考訳): ソフトウェア工学におけるLarge Language Models(LLM)の採用の増加は、ソフトウェア脆弱性検出への関心を喚起している。
しかし, この分野の急速な発展は, システム設計やデータセット利用などの違いから, 比較が難しい多様な研究を伴って, 断片的な研究環境を生み出している。
この断片化は、最先端技術の明確な概要を得るのを困難にし、研究を有意義に比較し分類する。
本稿では,LLMに基づくソフトウェア脆弱性検出の総合的な体系的文献レビュー(SLR)を提案する。
我々は,2020年1月から2025年6月までに発行された227の論文を分析し,タスクの定式化,入力表現,システムアーキテクチャ,適応技術によって分類した。
さらに、その特徴、脆弱性カバレッジ、多様性を含む、使用するデータセットを分析します。
本稿では、脆弱性検出アプローチのきめ細かい分類法、鍵となる制限の特定、そして実行可能な将来の研究機会の概要について述べる。
この分野の構造化された概要を提供することで、透明性を改善し、より同等で再現可能な研究を行おうとする研究者や実践者のための実践的なガイドとして機能する。
我々はすべての成果物を公開し、LSMベースのソフトウェア脆弱性検出研究の生きたリポジトリを維持します。
関連論文リスト
- AI-Based Software Vulnerability Detection: A Systematic Literature Review [6.604556571951421]
本研究は,2018年から2023年までのソフトウェア脆弱性検出(SVD)研究の系統的なレビューを行う。
我々の分析によると、研究の91%がAIベースの手法を使用しており、グラフベースのモデルが最も普及している。
データセットの品質、解釈可能性など、重要な制限を特定し、未探索のテクニックにおける新たな機会を強調します。
論文 参考訳(メタデータ) (2025-06-12T01:42:38Z) - Does Machine Unlearning Truly Remove Model Knowledge? A Framework for Auditing Unlearning in LLMs [58.24692529185971]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - LLMs in Software Security: A Survey of Vulnerability Detection Techniques and Insights [12.424610893030353]
大規模言語モデル(LLM)は、ソフトウェア脆弱性検出のためのトランスフォーメーションツールとして登場している。
本稿では,脆弱性検出におけるLSMの詳細な調査を行う。
言語間の脆弱性検出、マルチモーダルデータ統合、リポジトリレベルの分析といった課題に対処する。
論文 参考訳(メタデータ) (2025-02-10T21:33:38Z) - Survey on AI-Generated Media Detection: From Non-MLLM to MLLM [51.91311158085973]
AI生成メディアを検出する方法は急速に進化してきた。
MLLMに基づく汎用検出器は、信頼性検証、説明可能性、ローカライゼーション機能を統合する。
倫理的・セキュリティ的な配慮が、重要な世界的な懸念として浮上している。
論文 参考訳(メタデータ) (2025-02-07T12:18:20Z) - Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerの総合的な視覚異常検出ベンチマークを提案する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - A Case Study on Test Case Construction with Large Language Models:
Unveiling Practical Insights and Challenges [2.7029792239733914]
本稿では,ソフトウェア工学の文脈におけるテストケース構築における大規模言語モデルの適用について検討する。
定性分析と定量分析の混合により, LLMが試験ケースの包括性, 精度, 効率に与える影響を評価する。
論文 参考訳(メタデータ) (2023-12-19T20:59:02Z) - Resilience of Deep Learning applications: a systematic literature review of analysis and hardening techniques [3.265458968159693]
このレビューは、2019年1月から2024年3月までに発行された220の科学論文に基づいている。
著者らは、研究の類似点と特異点を解釈し、強調するために分類フレームワークを採用している。
論文 参考訳(メタデータ) (2023-09-27T19:22:19Z) - A Survey on Automated Software Vulnerability Detection Using Machine
Learning and Deep Learning [19.163031235081565]
近年、ソースコードの脆弱性を検出する機械学習(ML)とディープラーニング(DL)ベースのモデルが提示されている。
既存の研究のギャップを見つけることは困難であり、総合的な調査をせずに将来の改善の可能性を見出すのは難しいかもしれない。
この作業は、ML/DLベースのソースコードレベルソフトウェア脆弱性検出アプローチの様々な特徴を特徴付けるための体系的な調査を提示することで、そのギャップに対処する。
論文 参考訳(メタデータ) (2023-06-20T16:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。