論文の概要: LLM-Enhanced Software Patch Localization
- arxiv url: http://arxiv.org/abs/2409.06816v2
- Date: Fri, 13 Sep 2024 03:12:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 11:48:15.923268
- Title: LLM-Enhanced Software Patch Localization
- Title(参考訳): LLMによるソフトウェアパッチのローカライゼーション
- Authors: Jinhong Yu, Yi Chen, Di Tang, Xiaozhong Liu, XiaoFeng Wang, Chen Wu, Haixu Tang,
- Abstract要約: セキュリティパッチローカライゼーション(SPL)レコメンデーションメソッドは、この問題に対処するための主要なアプローチである。
LLM-SPLは,Large Language Model(LLM)の機能を活用して,所定のCVEに対するセキュリティパッチコミットを特定するレコメンデーションベースのSPLアプローチである。
2,461個のパッチに関連付けられた1,915個のCVEのデータセットに対する評価は、LLM-SPLがパッチコミットのランク付けにおいて優れており、リコールの点では最先端のメソッドを上回っていることを示している。
- 参考スコア(独自算出の注目度): 24.1593187492973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open source software (OSS) is integral to modern product development, and any vulnerability within it potentially compromises numerous products. While developers strive to apply security patches, pinpointing these patches among extensive OSS updates remains a challenge. Security patch localization (SPL) recommendation methods are leading approaches to address this. However, existing SPL models often falter when a commit lacks a clear association with its corresponding CVE, and do not consider a scenario that a vulnerability has multiple patches proposed over time before it has been fully resolved. To address these challenges, we introduce LLM-SPL, a recommendation-based SPL approach that leverages the capabilities of the Large Language Model (LLM) to locate the security patch commit for a given CVE. More specifically, we propose a joint learning framework, in which the outputs of LLM serves as additional features to aid our recommendation model in prioritizing security patches. Our evaluation on a dataset of 1,915 CVEs associated with 2,461 patches demonstrates that LLM-SPL excels in ranking patch commits, surpassing the state-of-the-art method in terms of Recall, while significantly reducing manual effort. Notably, for vulnerabilities requiring multiple patches, LLM-SPL significantly improves Recall by 22.83\%, NDCG by 19.41\%, and reduces manual effort by over 25\% when checking up to the top 10 rankings. The dataset and source code are available at \url{https://anonymous.4open.science/r/LLM-SPL-91F8}.
- Abstract(参考訳): オープンソースソフトウェア(OSS)は、現代の製品開発に不可欠なものであり、その中の脆弱性は、多くの製品に侵入する可能性がある。
開発者はセキュリティパッチを適用しようと努力するが、これらのパッチをOSSの大規模なアップデートで特定することは依然として難しい。
セキュリティパッチローカライゼーション(SPL)レコメンデーションメソッドは、この問題に対処するための主要なアプローチである。
しかしながら、既存のSPLモデルは、コミットが対応するCVEと明確な関連性が欠如している場合にしばしば混乱し、脆弱性が完全に解決される前に複数のパッチが提案されるシナリオを考慮しない。
これらの課題に対処するため、LLM-SPLというレコメンデーションベースのSPLアプローチを導入し、LLM(Large Language Model)の機能を活用して、所定のCVEのセキュリティパッチコミットを特定する。
より具体的には、LLMの出力がセキュリティパッチの優先順位付けにおける推奨モデルに役立つ追加機能として機能する共同学習フレームワークを提案する。
2,461個のパッチに関連付けられた1,915個のCVEのデータセットを評価したところ、LLM-SPLはパッチコミットのランク付けに優れており、リコールでは最先端のメソッドを上回り、手作業を大幅に削減していることがわかった。
特に、複数のパッチを必要とする脆弱性に対して、LLM-SPLはリコールを22.83\%改善し、NDCGを19.41\%改善し、トップ10までチェックすると手作業が25\%以上削減される。
データセットとソースコードは \url{https://anonymous.4open.science/r/LLM-SPL-91F8} で公開されている。
関連論文リスト
- Iterative Self-Tuning LLMs for Enhanced Jailbreaking Capabilities [63.603861880022954]
本稿では,対戦型LDMをジェイルブレイク能力に富んだ反復的自己調整プロセスであるADV-LLMを紹介する。
我々のフレームワークは,様々なオープンソース LLM 上で ASR を100% 近く達成しながら,逆接接尾辞を生成する計算コストを大幅に削減する。
Llama3のみに最適化されているにもかかわらず、GPT-3.5では99%のASR、GPT-4では49%のASRを達成している。
論文 参考訳(メタデータ) (2024-10-24T06:36:12Z) - APILOT: Navigating Large Language Models to Generate Secure Code by Sidestepping Outdated API Pitfalls [15.865915079829943]
APILOTは、時代遅れのAPIのリアルタイム、即時更新可能なデータセットを維持している。
拡張ジェネレーションメソッドを使用して、セキュアでバージョン対応のコードを生成するLLMをナビゲートする。
古いコードレコメンデーションを平均89.42%削減し、パフォーマンス上のオーバーヘッドを制限できる。
論文 参考訳(メタデータ) (2024-09-25T00:37:40Z) - VulnLLMEval: A Framework for Evaluating Large Language Models in Software Vulnerability Detection and Patching [0.9208007322096533]
大きな言語モデル(LLM)は、コード翻訳のようなタスクにおいて有望であることを示している。
本稿では,C コードの脆弱性を特定し,パッチする際の LLM の性能を評価するためのフレームワーク VulnLLMEval を紹介する。
私たちの研究には、Linuxカーネルから抽出された307の現実世界の脆弱性が含まれている。
論文 参考訳(メタデータ) (2024-09-16T22:00:20Z) - Automated Software Vulnerability Patching using Large Language Models [24.958856670970366]
我々は、事前訓練された大規模言語モデル(LLM)のパワーとメリットを活用して、自動脆弱性パッチを可能にする。
脆弱なコード動作を効果的に推論するために,LLMに適応的なプロンプトを導入する。
ゼロデイ脆弱性を含む実世界の脆弱性コードに対するLLMの評価は、既存のプロンプト法と最先端の非LLM技術の両方に優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-24T14:51:50Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Defensive Prompt Patch: A Robust and Interpretable Defense of LLMs against Jailbreak Attacks [59.46556573924901]
本稿では,大規模言語モデル(LLM)のための新しいプロンプトベースの防御機構であるDPPを紹介する。
従来のアプローチとは異なり、DPP は LLM の高能率を維持しながら最小の攻撃成功率 (ASR) を達成するように設計されている。
LLAMA-2-7B-ChatおよびMistral-7B-Instruct-v0.2モデルによる実験結果から,DSPの堅牢性と適応性が確認された。
論文 参考訳(メタデータ) (2024-05-30T14:40:35Z) - LLM2LLM: Boosting LLMs with Novel Iterative Data Enhancement [79.31084387589968]
事前訓練された大規模言語モデル(LLM)は、現在、自然言語処理タスクの大部分を解決するための最先端技術である。
LLM2LLMは、教師のLLMを使って小さなシードデータセットを強化するデータ拡張戦略である。
GSM8Kデータセットでは最大24.2%、CaseHOLDでは32.6%、SNIPSでは32.0%、TRECでは52.6%、SST-2では39.8%の改善が達成された。
論文 参考訳(メタデータ) (2024-03-22T08:57:07Z) - Just-in-Time Detection of Silent Security Patches [7.840762542485285]
セキュリティパッチは黙秘される可能性がある。つまり、CVEのような包括的なアドバイザリを常に備えているわけではない。
この透明性の欠如により、ユーザーは利用可能なセキュリティアップデートを気にせず、攻撃者が未パッチの脆弱性を悪用する十分な機会を提供する。
本稿では,大規模言語モデル(LLM)を活用して,生成されたコード変更説明を用いてパッチ情報を拡張することを提案する。
論文 参考訳(メタデータ) (2023-12-02T22:53:26Z) - Fake Alignment: Are LLMs Really Aligned Well? [91.26543768665778]
本研究では,複数質問とオープンエンド質問の相違点について検討した。
ジェイルブレイク攻撃パターンの研究にインスパイアされた我々は、これが不一致の一般化によって引き起こされたと論じている。
論文 参考訳(メタデータ) (2023-11-10T08:01:23Z) - Multilevel Semantic Embedding of Software Patches: A Fine-to-Coarse
Grained Approach Towards Security Patch Detection [6.838615442552715]
セキュリティパッチ検出のためのマルチレベルセマンティックエンベッドダ(MultiSEM)を提案する。
このモデルは、単語中心のベクトルをきめ細かいレベルで利用し、個々の単語の重要性を強調する。
我々は、この表現をさらに強化し、パッチ記述を同化して、全体論的なセマンティック・ポートレートを得る。
論文 参考訳(メタデータ) (2023-08-29T11:41:21Z) - Do-Not-Answer: A Dataset for Evaluating Safeguards in LLMs [59.596335292426105]
本稿では,大規模な言語モデルにおけるセーフガードを評価するための,最初のオープンソースデータセットを収集する。
我々は、自動安全性評価において、GPT-4に匹敵する結果を得るために、BERTライクな分類器をいくつか訓練する。
論文 参考訳(メタデータ) (2023-08-25T14:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。