論文の概要: Prompt, Synthesize, Fine-Tune: A Secure Code Generation Recipe
- arxiv url: http://arxiv.org/abs/2510.07189v1
- Date: Wed, 08 Oct 2025 16:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.623759
- Title: Prompt, Synthesize, Fine-Tune: A Secure Code Generation Recipe
- Title(参考訳): Prompt, Synthesize, Fine-Tune: セキュアなコード生成レシピ
- Authors: Junjie Li, Fazle Rabbi, Bo Yang, Song Wang, Jinqiu Yang,
- Abstract要約: 高品質で脆弱でセキュアなコード例を自動的に合成するフレームワークであるSecure-Instructを紹介します。
Secure-Instructは、セキュリティだけでなく、生成されたコードの機能的正確性も改善します。
- 参考スコア(独自算出の注目度): 16.177098761970683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although Large Language Models (LLMs) show promising solutions to automated code generation, they often produce insecure code that threatens software security. Current approaches (e.g., SafeCoder) to improve secure code generation suffer from limited and imbalanced datasets, reducing their effectiveness and generalizability. In this work, we present Secure-Instruct, a novel framework that automatically synthesizes high-quality vulnerable and secure code examples, generates fine-tuning instructions, and instruction-tunes LLMs to align task description and secure code generation abilities. We evaluate Secure-Instruct on four representative LLMs using two benchmarks: our own CWEBench and the existing CWEval. CWEBench comprises 93 scenarios on 44 CWEs, all without overlap with Secure-Instruct's synthetic instruction-tuning dataset, while CWEval covers 31 CWEs with 119 manually verified security-critical tasks. We find that Secure-Instruct improves not only the security but also the functional correctness of the generated code. On CWEBench, Secure-Instruct substantially improves secure code generation, giving a 14.3% average increase in secure ratio over the pretrained models and outperforms SafeCoder by 7.6%. On CWEval, Secure-Instruct achieves a 14% increase for CodeLlama-7B and 5.8% for Mistral-7B in Func-Sec@1 over pretrained models, and surpasses SafeCoder by 15.8% and 6.8% respectively.
- Abstract(参考訳): 大きな言語モデル(LLM)は、自動コード生成の有望なソリューションを示しているが、ソフトウェアセキュリティを脅かす不安定なコードを生成することが多い。
セキュアなコード生成を改善するための現在のアプローチ(SafeCoderなど)は、制限された不均衡なデータセットに悩まされており、その有効性と一般化性が低下している。
本研究では,高品質でセキュアなコード例を自動生成し,微調整命令を生成するSecure-Instructと,タスク記述とセキュアなコード生成能力の調整を行う命令チューニングLDMを提案する。
我々は、我々のCWEBenchと既存のCWEvalの2つのベンチマークを用いて、4つの代表的なLCMに対するセキュア命令を評価する。
CWEBenchは44のCWEで93のシナリオで構成されており、Secure-Instructの合成命令チューニングデータセットと重複しない。
Secure-Instructは、セキュリティだけでなく、生成されたコードの機能的正確性も改善します。
CWEBenchでは、Secure-Instructはセキュアなコード生成を大幅に改善し、事前訓練されたモデルに対して平均14.3%のセキュリティ比率が増加し、SafeCoderの7.6%を上回った。
CWEvalでは、Secure-Instructは、Func-Sec@1よりもCodeLlama-7Bが14%、Mistral-7Bが5.8%、SafeCoderが15.8%、SafeCoderが6.8%となっている。
関連論文リスト
- SmartCoder-R1: Towards Secure and Explainable Smart Contract Generation with Security-Aware Group Relative Policy Optimization [18.013438474903314]
本稿では,スマートコントラクト生成をセキュアかつ説明可能なフレームワークであるSmartCoder-R1を提案する。
我々は、人間のセキュリティ分析をエミュレートするためにモデルを訓練する。
SmartCoder-R1は、テクニックの新たな状態を確立し、5つの主要なメトリクスで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-12T03:14:50Z) - SafeWork-R1: Coevolving Safety and Intelligence under the AI-45$^{\circ}$ Law [91.33824439029533]
我々は,機能と安全性の共進化を示す最先端のマルチモーダル推論モデルであるSafeWork-R1を紹介する。
大規模でプログレッシブで安全指向の強化学習をポストトレーニングに取り入れたSafeLadderフレームワークを開発した。
さらに,SafeWork-R1-InternVL3-78B,SafeWork-R1-DeepSeek-70B,SafeWork-R1-Qwen2.5VL-7Bを開発した。
論文 参考訳(メタデータ) (2025-07-24T16:49:19Z) - Safety Pretraining: Toward the Next Generation of Safe AI [68.99129474671282]
モデルの安全性を最初から構築する,データ中心の事前トレーニングフレームワークを提案する。
我々のフレームワークは、セーフティフィルタリング、セーフティリフレージング、Native Refusal、Harmfulness-Tag Annotated Pretrainingの4つの重要なステップで構成されています。
我々の安全事前訓練モデルでは、一般的な劣化タスクのパフォーマンスを伴わない標準LLM安全性ベンチマークにおいて、攻撃成功率を38.8%から8.4%に下げている。
論文 参考訳(メタデータ) (2025-04-23T17:58:08Z) - ProSec: Fortifying Code LLMs with Proactive Security Alignment [14.907702430331803]
既存のメソッドは、インストラクションチューニングのための現実世界の脆弱性からセキュリティに焦点を当てたデータセットを収集する。
コードLLMをセキュアなコーディングプラクティスと整合させるために設計された,新しいプロアクティブなセキュリティアライメントアプローチであるProSecを提案する。
論文 参考訳(メタデータ) (2024-11-19T22:00:01Z) - SeCodePLT: A Unified Platform for Evaluating the Security of Code GenAI [58.29510889419971]
コード生成大型言語モデル(LLM)のセキュリティリスクと能力を評価するための既存のベンチマークは、いくつかの重要な制限に直面している。
手動で検証し、高品質なシード例から始める、汎用的でスケーラブルなベンチマーク構築フレームワークを導入し、ターゲット突然変異を通じて拡張する。
このフレームワークをPython、C/C++、Javaに適用すると、44のCWEベースのリスクカテゴリと3つのセキュリティ機能にまたがる5.9k以上のサンプルデータセットであるSeCodePLTが構築されます。
論文 参考訳(メタデータ) (2024-10-14T21:17:22Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。