論文の概要: Vul-R2: A Reasoning LLM for Automated Vulnerability Repair
- arxiv url: http://arxiv.org/abs/2510.05480v1
- Date: Tue, 07 Oct 2025 00:43:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.040273
- Title: Vul-R2: A Reasoning LLM for Automated Vulnerability Repair
- Title(参考訳): Vul-R2:自動脆弱性修復のための推論LDM
- Authors: Xin-Cheng Wen, Zirui Lin, Yijun Yang, Cuiyun Gao, Deheng Ye,
- Abstract要約: ソフトウェア脆弱性の指数的な増加により、自動脆弱性修復(AVR)ソリューションが緊急に必要になった。
最近の研究はシーケンス生成問題として定式化されており、この問題に対処するために大規模言語モデル(LLM)を活用している。
これらのアプローチは最先端のパフォーマンスを示しているが、以下の課題に直面している。
- 参考スコア(独自算出の注目度): 31.00029150695804
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The exponential increase in software vulnerabilities has created an urgent need for automatic vulnerability repair (AVR) solutions. Recent research has formulated AVR as a sequence generation problem and has leveraged large language models (LLMs) to address this problem. Typically, these approaches prompt or fine-tune LLMs to generate repairs for vulnerabilities directly. Although these methods show state-of-the-art performance, they face the following challenges: (1) Lack of high-quality, vulnerability-related reasoning data. Current approaches primarily rely on foundation models that mainly encode general programming knowledge. Without vulnerability-related reasoning data, they tend to fail to capture the diverse vulnerability repair patterns. (2) Hard to verify the intermediate vulnerability repair process during LLM training. Existing reinforcement learning methods often leverage intermediate execution feedback from the environment (e.g., sandbox-based execution results) to guide reinforcement learning training. In contrast, the vulnerability repair process generally lacks such intermediate, verifiable feedback, which poses additional challenges for model training.
- Abstract(参考訳): ソフトウェア脆弱性の指数的な増加により、自動脆弱性修復(AVR)ソリューションが緊急に必要になった。
最近の研究は、AVRをシーケンス生成問題として定式化し、この問題に対処するために大きな言語モデル(LLM)を活用している。
通常、これらのアプローチは脆弱性の修復を直接生成するために、ELMを起動または微調整する。
これらの手法は最先端のパフォーマンスを示すが、(1)高品質な脆弱性関連推論データの欠如。
現在のアプローチは主に、一般的なプログラミング知識をコード化する基礎モデルに依存している。
脆弱性に関連する推論データがないと、さまざまな脆弱性修復パターンをキャプチャできない傾向があります。
2) LLM トレーニングにおける中間的脆弱性修復過程の検証は困難である。
既存の強化学習手法では、環境からの中間的実行フィードバック(例えば、サンドボックスベースの実行結果)を利用して強化学習の指導を行うことが多い。
対照的に、脆弱性修復プロセスは一般的にそのような中間的で検証可能なフィードバックを欠いているため、モデルトレーニングにはさらなる課題が生じる。
関連論文リスト
- Scalable and Robust LLM Unlearning by Correcting Responses with Retrieved Exclusions [49.55618517046225]
Webスケールのコーパスリスクを記憶し、センシティブな情報を暴露する言語モデル。
本稿では,新しいアンラーニングフレームワークであるCorrective Unlearning with Retrieved Exclusions (CURE)を提案する。
CUREは、リークのモデル出力を確認し、安全な応答に修正する。
論文 参考訳(メタデータ) (2025-09-30T09:07:45Z) - Secure Tug-of-War (SecTOW): Iterative Defense-Attack Training with Reinforcement Learning for Multimodal Model Security [63.41350337821108]
マルチモーダル大規模言語モデル(MLLM)のセキュリティを高めるために,Secure Tug-of-War(SecTOW)を提案する。
SecTOWは2つのモジュールで構成される:ディフェンダーと補助攻撃者。どちらも強化学習(GRPO)を使用して反復的に訓練される。
SecTOWは、一般的な性能を維持しながら、セキュリティを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-07-29T17:39:48Z) - Explicit Vulnerability Generation with LLMs: An Investigation Beyond Adversarial Attacks [0.5218155982819203]
大規模言語モデル(LLM)は、コードアシスタントとしてますます使われている。
本研究は、より直接的な脅威について検討する。オープンソースのLLMは、トリガー時に脆弱性のあるコードを生成する。
論文 参考訳(メタデータ) (2025-07-14T08:36:26Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - You Only Train Once: A Flexible Training Framework for Code Vulnerability Detection Driven by Vul-Vector [3.5535006743623323]
underlinetextbfYOTO--underlinetextbfYou underlinetextbfOnly underlinetextbfTrain underlinetextbfOnceフレームワーク。
本稿では, underlinetextbfYOTO-underlinetextbfYou underlinetextbfOnly underlinetextbfTrain underlinetextbfOnceフレームワークを紹介する。
論文 参考訳(メタデータ) (2025-03-12T08:22:03Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
大規模言語モデル(LLM)は、より有能で広く普及している。
テスト時間計算の標準化, 測定, スケーリングの最近の進歩は, ハードタスクにおける高い性能を達成するためにモデルを最適化するための新しい手法を提案する。
本稿では、これらの進歩をジェイルブレイクモデルに応用し、協調LDMから有害な応答を誘発する。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - Adaptive Distraction: Probing LLM Contextual Robustness with Automated Tree Search [76.54475437069395]
大きな言語モデル(LLM)は、意味的に一貫性があるがタスクに依存しないコンテキスト情報に直面している場合、元のパフォーマンスを維持するのに苦労することが多い。
本稿では,木探索に基づく動的散逸生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-03T18:43:36Z) - CRepair: CVAE-based Automatic Vulnerability Repair Technology [1.147605955490786]
ソフトウェア脆弱性は、現代のソフトウェアとそのアプリケーションデータの完全性、セキュリティ、信頼性に重大な脅威をもたらす。
脆弱性修復の課題に対処するため、研究者らは、学習に基づく自動脆弱性修復技術が広く注目を集めるなど、様々な解決策を提案している。
本稿では,システムコードのセキュリティ脆弱性を修正することを目的としたCVAEベースの自動脆弱性修復技術であるCRepairを提案する。
論文 参考訳(メタデータ) (2024-11-08T12:55:04Z) - Generalization-Enhanced Code Vulnerability Detection via Multi-Task Instruction Fine-Tuning [16.54022485688803]
VulLLMは、マルチタスク学習をLarge Language Models (LLM)と統合して、ディープシークな脆弱性機能を効果的にマイニングする新しいフレームワークである。
6つの大きなデータセットで実施された実験は、VulLLMが有効性、一般化、堅牢性という観点から7つの最先端モデルを上回ることを示した。
論文 参考訳(メタデータ) (2024-06-06T03:29:05Z) - DLAP: A Deep Learning Augmented Large Language Model Prompting Framework for Software Vulnerability Detection [12.686480870065827]
本稿では,ディープラーニング(DL)モデルとLLM(Large Language Models)モデルの両方を最大限に組み合わせて,例外的な脆弱性検出性能を実現するフレームワークである textbfDLAP について述べる。
実験の結果、DLAPは、ロールベースのプロンプト、補助情報プロンプト、チェーン・オブ・シントプロンプト、コンテキスト内学習プロンプトなど、最先端のプロンプトフレームワークより優れていることが確認された。
論文 参考訳(メタデータ) (2024-05-02T11:44:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。