論文の概要: RefleXGen:The unexamined code is not worth using
- arxiv url: http://arxiv.org/abs/2510.23674v1
- Date: Mon, 27 Oct 2025 05:28:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.33831
- Title: RefleXGen:The unexamined code is not worth using
- Title(参考訳): RefleXGen:未検討のコードは使う価値がありません
- Authors: Bin Wang, Hui Li, AoFan Liu, BoTao Yang, Ao Yang, YiLu Zhong, Weixiang Huang, Yanping Zhang, Runhuai Huang, Weimin Zeng,
- Abstract要約: RefleXGenは、大規模言語モデル(LLM)に固有の自己回帰メカニズムをガイドしたRAG(Retrieval-Augmented Generation)技術を統合することで、コードのセキュリティを大幅に向上する革新的な方法である。
本研究は,AI生成コードのセキュリティを強化する上で,モデル自己回帰の品質向上が効果的かつ実践的な戦略であることを示す。
- 参考スコア(独自算出の注目度): 12.92699478812163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Security in code generation remains a pivotal challenge when applying large language models (LLMs). This paper introduces RefleXGen, an innovative method that significantly enhances code security by integrating Retrieval-Augmented Generation (RAG) techniques with guided self-reflection mechanisms inherent in LLMs. Unlike traditional approaches that rely on fine-tuning LLMs or developing specialized secure code datasets - processes that can be resource-intensive - RefleXGen iteratively optimizes the code generation process through self-assessment and reflection without the need for extensive resources. Within this framework, the model continuously accumulates and refines its knowledge base, thereby progressively improving the security of the generated code. Experimental results demonstrate that RefleXGen substantially enhances code security across multiple models, achieving a 13.6% improvement with GPT-3.5 Turbo, a 6.7% improvement with GPT-4o, a 4.5% improvement with CodeQwen, and a 5.8% improvement with Gemini. Our findings highlight that improving the quality of model self-reflection constitutes an effective and practical strategy for strengthening the security of AI-generated code.
- Abstract(参考訳): コード生成におけるセキュリティは、大きな言語モデル(LLM)を適用する上で、依然として重要な課題である。
本稿では,LLMに固有の自己回帰機構を備えたRAG(Retrieval-Augmented Generation)技術を統合することで,コードセキュリティを大幅に向上する革新的な手法であるRefleXGenを紹介する。
微調整のLLMや特別なセキュアなコードデータセット - リソース集約的なプロセス – に依存する従来のアプローチとは異なり、RefleXGenは、大規模なリソースを必要とせずに、自己評価とリフレクションを通じてコード生成プロセスを反復的に最適化します。
このフレームワーク内では、モデルを継続的に蓄積し、知識ベースを洗練し、生成したコードのセキュリティを徐々に改善します。
実験の結果、RefleXGenは複数のモデルのコードセキュリティを大幅に向上し、GPT-3.5 Turboで13.6%の改善、GPT-4oで6.7%の改善、CodeQwenで4.5%改善、Geminiで5.8%改善した。
本研究は,AI生成コードのセキュリティを強化する上で,モデル自己回帰の品質向上が効果的かつ実践的な戦略であることを示す。
関連論文リスト
- RESCUE: Retrieval Augmented Secure Code Generation [5.001448044530164]
2つの重要な革新を伴うセキュアなコード生成のための新しいフレームワークであるRESCUEを提案する。
まず, LLMを用いたクラスタ列化蒸留とプログラムスライシングを組み合わせたハイブリッド知識ベース構築法を提案する。
第2に,構築した知識ベースを上から下へトラバースする階層的多面検索を設計し,階層レベルで複数のセキュリティクリティカルな事実を統合する。
論文 参考訳(メタデータ) (2025-10-21T01:13:03Z) - Security Degradation in Iterative AI Code Generation -- A Systematic Analysis of the Paradox [0.11470070927586017]
本稿では,400個のコードサンプルを用いた制御実験により,AI生成コードのセキュリティ劣化を解析する。
たった5回のイテレーションで,致命的な脆弱性が37.6%増加したことが分かりました。
これらのリスクを軽減するための実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2025-05-19T22:55:51Z) - Iterative Self-Tuning LLMs for Enhanced Jailbreaking Capabilities [50.980446687774645]
本稿では,対戦型LDMをジェイルブレイク能力に富んだ反復的自己調整プロセスであるADV-LLMを紹介する。
我々のフレームワークは,様々なオープンソース LLM 上で ASR を100% 近く達成しながら,逆接接尾辞を生成する計算コストを大幅に削減する。
Llama3のみに最適化されているにもかかわらず、GPT-3.5では99%のASR、GPT-4では49%のASRを達成している。
論文 参考訳(メタデータ) (2024-10-24T06:36:12Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - How Well Do Large Language Models Serve as End-to-End Secure Code Agents for Python? [42.119319820752324]
GPT-3.5 と GPT-4 の 4 つの LLM で生成されたコードの脆弱性を識別し,修復する能力について検討した。
4900のコードを手動または自動でレビューすることで、大きな言語モデルにはシナリオ関連セキュリティリスクの認識が欠けていることが判明した。
修復の1ラウンドの制限に対処するため,LLMにより安全なソースコード構築を促す軽量ツールを開発した。
論文 参考訳(メタデータ) (2024-08-20T02:42:29Z) - OriGen:Enhancing RTL Code Generation with Code-to-Code Augmentation and Self-Reflection [54.775409528658486]
OriGenは、セルフリフレクション機能と新しいデータセット拡張方法論を組み込んだ、完全なオープンソースフレームワークである。
このアプローチでは,オープンソースのRTLコードデータセットの品質向上のために,コード-コード拡張技術を採用している。
論文 参考訳(メタデータ) (2024-07-23T07:22:25Z) - SOEN-101: Code Generation by Emulating Software Process Models Using Large Language Model Agents [50.82665351100067]
FlowGenは、複数のLarge Language Model (LLM)エージェントに基づいたソフトウェアプロセスモデルをエミュレートするコード生成フレームワークである。
FlowGenScrumをHumanEval、HumanEval-ET、MBPP、MBPP-ETの4つのベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-23T14:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。