論文の概要: Fortifying LLM-Based Code Generation with Graph-Based Reasoning on Secure Coding Practices
- arxiv url: http://arxiv.org/abs/2510.09682v1
- Date: Wed, 08 Oct 2025 22:24:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.554137
- Title: Fortifying LLM-Based Code Generation with Graph-Based Reasoning on Secure Coding Practices
- Title(参考訳): セキュアコーディングプラクティスに基づくグラフベースの推論によるLLMベースのコード生成
- Authors: Rupam Patir, Keyan Guo, Haipeng Cai, Hongxin Hu,
- Abstract要約: 我々は、セキュアコーディングプラクティス(SCP)に対する構造化推論に焦点を当てた新しい方向性を探求するGRASPを紹介する。
GRASP は,(1) SCP を依存や関係を捉えたDAG (Directed Acyclic Graph) に整理する SCP グラフ,(2) コード生成のための関連 SCP を通じて LLM を体系的に導くグラフベースの推論プロセス,の2つの主要なアイデアから構成される。
我々の評価によると、GRASPは複数のLSMで80%を超えるセキュリティレート(SR)を一貫して達成しており、ゼロデイ脆弱性のベースラインよりも最大88%改善されている。
- 参考スコア(独自算出の注目度): 18.590367120499394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The code generation capabilities of Large Language Models (LLMs) have transformed the field of software development. However, this advancement also presents significant security challenges, as LLM-generated code often contains vulnerabilities. One direction of research strengthens LLMs by injecting or refining security knowledge through curated datasets, model tuning, or static analyzers. While effective in certain settings, these methods can be resource-intensive, less adaptable to zero-day vulnerabilities, and often inapplicable to proprietary models. To address these challenges, we introduce GRASP, which explores a new direction that focuses on structured reasoning over Secure Coding Practices(SCPs) rather than additional training or external feedback. GRASP comprises two key ideas: (1) an SCP graph that organizes SCPs into a Directed Acyclic Graph (DAG) capturing dependencies and relationships, and (2) a graph-based reasoning process that systematically guides LLMs through relevant SCPs for code generation. This design enables interpretable, model-agnostic, and scalable security improvements, particularly for previously unseen vulnerabilities. Our evaluation shows that GRASP consistently achieves Security Rates (SR) exceeding 80% across multiple LLMs, and delivers up to 88% improvements over baselines on zero-day vulnerabilities.
- Abstract(参考訳): LLM(Large Language Models)のコード生成能力は、ソフトウェア開発の分野を変えました。
しかし、この進歩は、LLM生成コードがしばしば脆弱性を含んでいるため、重大なセキュリティ上の課題も生じている。
研究の1つの方向は、キュレートされたデータセット、モデルチューニング、静的アナライザを通じてセキュリティ知識を注入または精錬することで、LSMを強化している。
特定の環境では有効だが、これらの手法はリソース集約的であり、ゼロデイ脆弱性への適応性が低く、プロプライエタリなモデルには適用できないことが多い。
これらの課題に対処するために、GRASPを紹介します。これは、追加のトレーニングや外部からのフィードバックではなく、セキュアコーディングプラクティス(SCP)に対する構造化推論に焦点を当てた、新たな方向性を探求します。
GRASP は,(1) SCP を依存や関係を捉えたDAG (Directed Acyclic Graph) に整理する SCP グラフ,(2) コード生成のための関連 SCP を通じて LLM を体系的に導くグラフベースの推論プロセス,の2つの主要なアイデアから構成される。
この設計は解釈可能で、モデルに依存しない、スケーラブルなセキュリティ改善を可能にする。
我々の評価によると、GRASPは複数のLSMで80%を超えるセキュリティレート(SR)を一貫して達成しており、ゼロデイ脆弱性のベースラインよりも最大88%改善されている。
関連論文リスト
- Guiding AI to Fix Its Own Flaws: An Empirical Study on LLM-Driven Secure Code Generation [16.29310628754089]
大規模言語モデル(LLM)は、コードの自動生成のための強力なツールになっている。
LLMは、しばしば重要なセキュリティプラクティスを見落とし、安全でないコードを生成する。
本稿では、安全性の低いコードを生成するための固有の傾向、自己生成する脆弱性ヒントによってガイドされた場合にセキュアなコードを生成する能力、フィードバックレベルが異なる場合に脆弱性を修復する効果について検討する。
論文 参考訳(メタデータ) (2025-06-28T23:24:33Z) - Large Language Model Unlearning for Source Code [65.42425213605114]
PRODは、LLMがコード生成能力を保ちながら、望ましくないコード内容を忘れることができる新しいアンラーニングアプローチである。
本評価は,既存の未学習アプローチと比較して,忘れ品質とモデルユーティリティのバランスが良好であることを示す。
論文 参考訳(メタデータ) (2025-06-20T16:27:59Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - Towards Explainable Vulnerability Detection with Large Language Models [14.243344783348398]
ソフトウェア脆弱性は、ソフトウェアシステムのセキュリティと整合性に重大なリスクをもたらす。
大規模言語モデル(LLMs)の出現は、その高度な生成能力による変換ポテンシャルを導入している。
本稿では,脆弱性検出と説明という2つのタスクにLLMを専門化する自動フレームワークであるLLMVulExpを提案する。
論文 参考訳(メタデータ) (2024-06-14T04:01:25Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - Understanding the Effectiveness of Large Language Models in Detecting Security Vulnerabilities [12.82645410161464]
5つの異なるセキュリティデータセットから5,000のコードサンプルに対して、16の事前学習された大規模言語モデルの有効性を評価する。
全体として、LSMは脆弱性の検出において最も穏やかな効果を示し、データセットの平均精度は62.8%、F1スコアは0.71である。
ステップバイステップ分析を含む高度なプロンプト戦略は、F1スコア(平均0.18まで)で実世界のデータセット上でのLLMのパフォーマンスを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-11-16T13:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。