論文の概要: Inference-Time Safety For Code LLMs Via Retrieval-Augmented Revision
- arxiv url: http://arxiv.org/abs/2603.01494v1
- Date: Mon, 02 Mar 2026 06:06:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.709743
- Title: Inference-Time Safety For Code LLMs Via Retrieval-Augmented Revision
- Title(参考訳): 検索機能強化によるコードLLMの推論時間安全性
- Authors: Manisha Mukherjee, Vincent J. Hellendoorn,
- Abstract要約: 大規模言語モデル(LLM)は、高度なソフトウェア開発において、コード生成のためにますます多くデプロイされている。
LLMは、新しく発見された脆弱性やセキュリティ標準の変更に容易に適応できない。
本稿では,推論時安全機構として機能する設計による信頼に値するコード生成への原則的アプローチを提案する。
- 参考スコア(独自算出の注目度): 3.983997834693767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly deployed for code generation in high-stakes software development, yet their limited transparency in security reasoning and brittleness to evolving vulnerability patterns raise critical trustworthiness concerns. Models trained on static datasets cannot readily adapt to newly discovered vulnerabilities or changing security standards without retraining, leading to the repeated generation of unsafe code. We present a principled approach to trustworthy code generation by design that operates as an inference-time safety mechanism. Our approach employs retrieval-augmented generation to surface relevant security risks in generated code and retrieve related security discussions from a curated Stack Overflow knowledge base, which are then used to guide an LLM during code revision. This design emphasizes three aspects relevant to trustworthiness: (1) interpretability, through transparent safety interventions grounded in expert community explanations; (2) robustness, by allowing adaptation to evolving security practices without model retraining; and (3) safety alignment, through real-time intervention before unsafe code reaches deployment. Across real-world and benchmark datasets, our approach improves the security of LLM-generated code compared to prompting alone, while introducing no new vulnerabilities as measured by static analysis. These results suggest that principled, retrieval-augmented inference-time interventions can serve as a complementary mechanism for improving the safety of LLM-based code generation, and highlight the ongoing value of community knowledge in supporting trustworthy AI deployment.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ハイリスクなソフトウェア開発において、コード生成のためにますますデプロイされているが、脆弱性パターンの進化に対するセキュリティ推論と脆さに対する透明性の制限は、重要な信頼性の懸念を引き起こす。
静的データセットでトレーニングされたモデルは、新たに発見された脆弱性やセキュリティ標準の変更に、再トレーニングなしで容易に適応できないため、安全でないコードを繰り返し生成することが可能になる。
本稿では,推論時安全機構として機能する設計による信頼に値するコード生成への原則的アプローチを提案する。
提案手法では,生成したコードに関連性のあるセキュリティリスクを抽出し,コンパイルしたStack Overflowナレッジベースから関連するセキュリティディスカッションを検索し,コード修正中にLLMをガイドする。
本設計では,(1)専門家コミュニティの説明に基づく透明な安全介入による解釈可能性,(2)モデルの再トレーニングを伴わずに,進化するセキュリティプラクティスへの適応を可能にすることによる堅牢性,(3)安全アライメント,(3)安全でないコードがデプロイされる前にリアルタイムに介入すること,の3つの側面を強調している。
実世界およびベンチマークデータセット全体で、我々のアプローチは、静的解析によって測定された新たな脆弱性を導入しながらも、プロンプトだけではLLM生成コードのセキュリティを改善します。
これらの結果から,LLMベースのコード生成の安全性向上のための補完的なメカニズムとして,信頼性の高いAIデプロイメントを支援する上で,コミュニティ知識の継続的な価値を強調できる可能性が示唆された。
関連論文リスト
- Learning to Generate Secure Code via Token-Level Rewards [11.539519023515021]
大規模言語モデル(LLM)は、コード生成において強力な機能を示しているが、セキュリティ上の脆弱性を生み出す傾向にある。
我々は、自己回帰を利用して現実世界の脆弱性から高信頼の修復ペアを構築する新しいセキュアコード生成フレームワークであるVul2Safeを提案する。
また、コードセキュリティのための強化学習におけるトークンレベルの報酬の使用を先駆する、新しいトレーニングフレームワークSRCodeも導入しています。
論文 参考訳(メタデータ) (2026-02-26T12:57:27Z) - Secure Code Generation via Online Reinforcement Learning with Vulnerability Reward Model [60.60587869092729]
大規模言語モデル(LLM)は、ソフトウェア開発でますます使われているが、安全でないコードを生成する傾向は、現実世界のデプロイメントにとって大きな障壁である。
機能保存型セキュアコード生成のためのオンライン強化学習フレームワークSecCoderXを提案する。
論文 参考訳(メタデータ) (2026-02-07T07:42:07Z) - RealSec-bench: A Benchmark for Evaluating Secure Code Generation in Real-World Repositories [58.32028251925354]
LLM(Large Language Models)は、コード生成において顕著な能力を示しているが、セキュアなコードを生成する能力は依然として重要で、未調査の領域である。
我々はRealSec-benchを紹介します。RealSec-benchは、現実世界の高リスクなJavaリポジトリから慎重に構築されたセキュアなコード生成のための新しいベンチマークです。
論文 参考訳(メタデータ) (2026-01-30T08:29:01Z) - Reasoning over Precedents Alongside Statutes: Case-Augmented Deliberative Alignment for LLM Safety [59.01189713115365]
本研究は, 広範囲な安全コードを明確に指定することによる影響を, 図示的事例を通して示すことよりも評価する。
明示的なコードを参照することで、無害性が向上し、系統的に有用性が低下することがわかった。
自己生成型安全推論チェーンの強化学習を利用したLLMのケース拡張型検討アライメント手法であるCADAを提案する。
論文 参考訳(メタデータ) (2026-01-12T21:08:46Z) - RESCUE: Retrieval Augmented Secure Code Generation [5.001448044530164]
2つの重要な革新を伴うセキュアなコード生成のための新しいフレームワークであるRESCUEを提案する。
まず, LLMを用いたクラスタ列化蒸留とプログラムスライシングを組み合わせたハイブリッド知識ベース構築法を提案する。
第2に,構築した知識ベースを上から下へトラバースする階層的多面検索を設計し,階層レベルで複数のセキュリティクリティカルな事実を統合する。
論文 参考訳(メタデータ) (2025-10-21T01:13:03Z) - CARE: Decoding Time Safety Alignment via Rollback and Introspection Intervention [68.95008546581339]
Contrastive Decodingのような既存のデコーディングタイムの介入は、安全と応答品質の間に深刻なトレードオフを強いることが多い。
本稿では,3つの重要なコンポーネントを統合した,復号時安全アライメントのための新しいフレームワークであるCAREを提案する。
このフレームワークは、安全性、品質、効率のバランスが良く、有害な応答率が低く、ユーザエクスペリエンスを最小限に破壊できる。
論文 参考訳(メタデータ) (2025-09-01T04:50:02Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Give LLMs a Security Course: Securing Retrieval-Augmented Code Generation via Knowledge Injection [5.011290848820237]
既存のRetrieval-Augmented Code Generation (RACG) システムはセキュリティをほとんど見落としており、重大なリスクをもたらしている。
本稿では,RACGシステムのセキュリティ強化フレームワークであるCodeGuarderを提案する。
我々のフレームワークは,セキュアなコードサンプルやルート原因アノテーションを含む,現実世界の脆弱性データベースからセキュリティ知識ベースを構築する。
論文 参考訳(メタデータ) (2025-04-23T05:27:27Z) - Is Your AI-Generated Code Really Safe? Evaluating Large Language Models on Secure Code Generation with CodeSecEval [20.959848710829878]
大規模言語モデル(LLM)は、コード生成とコード修復に大きな進歩をもたらした。
しかし、GitHubのようなオープンソースのリポジトリから無防備なデータを使用したトレーニングは、セキュリティ上の脆弱性を必然的に伝播するリスクを増大させる。
我々は,コードLLMのセキュリティ面を正確に評価し,拡張することを目的とした総合的研究を提案する。
論文 参考訳(メタデータ) (2024-07-02T16:13:21Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。