論文の概要: SecCodePRM: A Process Reward Model for Code Security
- arxiv url: http://arxiv.org/abs/2602.10418v1
- Date: Wed, 11 Feb 2026 02:00:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.376245
- Title: SecCodePRM: A Process Reward Model for Code Security
- Title(参考訳): SecCodePRM: コードセキュリティのためのプロセスリワードモデル
- Authors: Weichen Yu, Ravi Mangal, Yinyi Luo, Kai Hu, Jingxuan He, Corina S. Pasareanu, Matt Fredrikson,
- Abstract要約: SecCodePRMは、コンテキスト対応のステップレベルのセキュリティスコアをコード軌道に沿って割り当てるプロセス報酬モデルである。
フルコード脆弱性検出(VD)、部分コードVD、セキュアコード生成(CG)の3つのアプリケーションがある。
- 参考スコア(独自算出の注目度): 18.20834502693226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models are rapidly becoming core components of modern software development workflows, yet ensuring code security remains challenging. Existing vulnerability detection pipelines either rely on static analyzers or use LLM/GNN-based detectors trained with coarse program-level supervision. Both families often require complete context, provide sparse end-of-completion feedback, and can degrade as code length grows, making them ill-suited for real-time, prefix-level assessment during interactive coding and streaming generation. We propose SecCodePRM, a security-oriented process reward model that assigns a context-aware, step-level security score along a code trajectory. To train the model, we derive step-level supervision labels from static analyzers and expert annotations, allowing the model to attend more precisely to fine-grained regions associated with inter-procedural vulnerabilities. SecCodePRM has three applications: full-code vulnerability detection (VD), partial-code VD, and secure code generation (CG). For VD, SecCodePRM uses risk-sensitive aggregation that emphasizes high-risk steps; for CG, SecCodePRM supports inference-time scaling by ranking candidate continuations and favoring higher cumulative reward. This design yields dense, real-time feedback that scales to long-horizon generation. Empirically, SecCodePRM outperforms prior approaches in all three settings, while preserving code functional correctness, suggesting improved security without a safety-utility tradeoff.
- Abstract(参考訳): 大規模言語モデルは、現代のソフトウェア開発ワークフローの中核的なコンポーネントとして急速になってきているが、コードのセキュリティは依然として困難である。
既存の脆弱性検出パイプラインは、静的アナライザに依存するか、プログラムレベルの粗い監視で訓練されたLLM/GNNベースの検出器を使用する。
いずれのファミリーも、完全なコンテキストを必要とし、簡潔な補完フィードバックを提供し、コードの長さが大きくなるにつれて劣化し、インタラクティブなコーディングとストリーミング生成の間、リアルタイムでプレフィックスレベルのアセスメントには不適である。
本稿では,セキュリティ指向プロセス報酬モデルSecCodePRMを提案する。
モデルをトレーニングするために、静的アナライザとエキスパートアノテーションからステップレベルの監視ラベルを導出し、プロセス間脆弱性に関連するきめ細かい領域にモデルがより正確に対応できるようにする。
SecCodePRMには、フルコード脆弱性検出(VD)、部分コードVD、セキュアコード生成(CG)の3つのアプリケーションがある。
VDでは、SecCodePRMはリスクに敏感なアグリゲーションを使用し、リスクの高いステップを強調している。
この設計は、ロングホライゾン・ジェネレーションにスケールする高密度でリアルタイムなフィードバックをもたらす。
実証的に、SecCodePRMは3つの設定すべてで以前のアプローチよりも優れており、コード機能の正しさは保たれており、安全ユーティリティのトレードオフなしにセキュリティが改善されていることを示唆している。
関連論文リスト
- LLMs + Security = Trouble [5.235480194772795]
「火を点ける」アプローチでは、セキュリティバグの長い尾尾に対処できない。
コード生成中にセキュリティ制約を強制することで、より強力なセキュリティ保証を得ることができる、と私たちは主張する。
論文 参考訳(メタデータ) (2026-02-09T09:27:28Z) - Secure Code Generation via Online Reinforcement Learning with Vulnerability Reward Model [60.60587869092729]
大規模言語モデル(LLM)は、ソフトウェア開発でますます使われているが、安全でないコードを生成する傾向は、現実世界のデプロイメントにとって大きな障壁である。
機能保存型セキュアコード生成のためのオンライン強化学習フレームワークSecCoderXを提案する。
論文 参考訳(メタデータ) (2026-02-07T07:42:07Z) - RealSec-bench: A Benchmark for Evaluating Secure Code Generation in Real-World Repositories [58.32028251925354]
LLM(Large Language Models)は、コード生成において顕著な能力を示しているが、セキュアなコードを生成する能力は依然として重要で、未調査の領域である。
我々はRealSec-benchを紹介します。RealSec-benchは、現実世界の高リスクなJavaリポジトリから慎重に構築されたセキュアなコード生成のための新しいベンチマークです。
論文 参考訳(メタデータ) (2026-01-30T08:29:01Z) - A.S.E: A Repository-Level Benchmark for Evaluating Security in AI-Generated Code [49.009041488527544]
A.S.Eは、AI生成コードのセキュリティを評価するためのリポジトリレベルの評価ベンチマークである。
現在の大規模言語モデル(LLM)は、セキュアなコーディングに苦戦している。
大きな推論予算は、必ずしもより良いコード生成につながるとは限らない。
論文 参考訳(メタデータ) (2025-08-25T15:11:11Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - ProSec: Fortifying Code LLMs with Proactive Security Alignment [14.907702430331803]
既存のメソッドは、インストラクションチューニングのための現実世界の脆弱性からセキュリティに焦点を当てたデータセットを収集する。
コードLLMをセキュアなコーディングプラクティスと整合させるために設計された,新しいプロアクティブなセキュリティアライメントアプローチであるProSecを提案する。
論文 参考訳(メタデータ) (2024-11-19T22:00:01Z) - SeCodePLT: A Unified Platform for Evaluating the Security of Code GenAI [58.29510889419971]
コード生成大型言語モデル(LLM)のセキュリティリスクと能力を評価するための既存のベンチマークは、いくつかの重要な制限に直面している。
手動で検証し、高品質なシード例から始める、汎用的でスケーラブルなベンチマーク構築フレームワークを導入し、ターゲット突然変異を通じて拡張する。
このフレームワークをPython、C/C++、Javaに適用すると、44のCWEベースのリスクカテゴリと3つのセキュリティ機能にまたがる5.9k以上のサンプルデータセットであるSeCodePLTが構築されます。
論文 参考訳(メタデータ) (2024-10-14T21:17:22Z) - AutoSafeCoder: A Multi-Agent Framework for Securing LLM Code Generation through Static Analysis and Fuzz Testing [6.334110674473677]
既存のアプローチは、セキュアで脆弱性のないコードを生成するのに苦労するコード生成に、単一のエージェントに依存することが多い。
コード生成,脆弱性解析,セキュリティ強化にLLM駆動エージェントを活用するマルチエージェントフレームワークであるAutoSafeCoderを提案する。
私たちのコントリビューションは、コード生成中に反復的なプロセスで動的および静的なテストを統合することで、マルチエージェントコード生成の安全性を確保することに焦点を当てています。
論文 参考訳(メタデータ) (2024-09-16T21:15:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。