論文の概要: A Systematic Evaluation of Parameter-Efficient Fine-Tuning Methods for the Security of Code LLMs
- arxiv url: http://arxiv.org/abs/2509.12649v1
- Date: Tue, 16 Sep 2025 04:09:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.877764
- Title: A Systematic Evaluation of Parameter-Efficient Fine-Tuning Methods for the Security of Code LLMs
- Title(参考訳): コードLLMのセキュリティのためのパラメータ効率の良いファインチューニング手法の体系的評価
- Authors: Kiho Lee, Jungkon Kim, Doowon Kim, Hyoungshick Kim,
- Abstract要約: 大規模言語モデル(LLM)はソフトウェア開発を著しく加速するが、その頻繁な安全でないコードの生成は重大なリスクをもたらす。
本研究では, 7つのパラメータ効率の微調整(PEFT)手法を総合的に評価し, 性能を損なうことなく, セキュアなコード生成が大幅に向上したことを示す。
提案手法は,CodeGen2 16B上で80.86%,67.28%のベースラインに対して13.5ポイント改善した。
- 参考スコア(独自算出の注目度): 14.754759160027959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code-generating Large Language Models (LLMs) significantly accelerate software development. However, their frequent generation of insecure code presents serious risks. We present a comprehensive evaluation of seven parameter-efficient fine-tuning (PEFT) techniques, demonstrating substantial gains in secure code generation without compromising functionality. Our research identifies prompt-tuning as the most effective PEFT method, achieving an 80.86% Overall-Secure-Rate on CodeGen2 16B, a 13.5-point improvement over the 67.28% baseline. Optimizing decoding strategies through sampling temperature further elevated security to 87.65%. This equates to a reduction of approximately 203,700 vulnerable code snippets per million generated. Moreover, prompt and prefix tuning increase robustness against poisoning attacks in our TrojanPuzzle evaluation, with strong performance against CWE-79 and CWE-502 attack vectors. Our findings generalize across Python and Java, confirming prompt-tuning's consistent effectiveness. This study provides essential insights and practical guidance for building more resilient software systems with LLMs.
- Abstract(参考訳): コード生成大型言語モデル(LLM)は、ソフトウェア開発を著しく加速します。
しかし、安全性の低いコードが頻繁に発生すると、重大なリスクが生じる。
本研究では, 7つのパラメータ効率の微調整(PEFT)手法を総合的に評価し, 性能を損なうことなく, セキュアなコード生成が大幅に向上したことを示す。
提案手法は,CodeGen2 16B上で80.86%,67.28%のベースラインに対して13.5ポイント改善した。
サンプリング温度による復号戦略の最適化により、セキュリティはさらに87.65%向上した。
これは、生成された100万に対して約203,700の脆弱性のあるコードスニペットの削減に相当する。
さらにTrojanPuzzle の評価では,CWE-79 と CWE-502 攻撃ベクトルに対して強い性能を示した。
我々の発見はPythonとJavaにまたがって一般化され、即時チューニングの一貫性のある有効性が確認された。
本研究は,LLMを用いたよりレジリエントなソフトウェアシステム構築のための重要な洞察と実践的ガイダンスを提供する。
関連論文リスト
- SmartCoder-R1: Towards Secure and Explainable Smart Contract Generation with Security-Aware Group Relative Policy Optimization [18.013438474903314]
本稿では,スマートコントラクト生成をセキュアかつ説明可能なフレームワークであるSmartCoder-R1を提案する。
我々は、人間のセキュリティ分析をエミュレートするためにモデルを訓練する。
SmartCoder-R1は、テクニックの新たな状態を確立し、5つの主要なメトリクスで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-12T03:14:50Z) - A Mixture of Linear Corrections Generates Secure Code [20.94236753015922]
大規模言語モデル(LLM)は、洗練されたコード生成タスクに熟練しているが、コードの脆弱性を確実に検出または回避するには効果がない。
現在のLLMは、脆弱なコードとセキュアなコードとを区別する正確な内部表現を符号化している。
本研究では,モデルのトークン生成確率を補正によって微調整する推論時ステアリング手法を開発した。
論文 参考訳(メタデータ) (2025-07-13T06:27:33Z) - Rethinking Verification for LLM Code Generation: From Generation to Testing [44.46778801679273]
大規模言語モデル(LLM)は最近、HumanEvalやLiveCodeBenchといったコード生成ベンチマークで顕著な成功を収めた。
本稿では,テストスーツの厳密な定量化を目的とした新しい多次元メトリクスを提案する。
実験の結果、SAGAは90.62%、検証器の精度はTCGBenchで32.58%に達することがわかった。
論文 参考訳(メタデータ) (2025-07-09T14:58:47Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - Enhancing Smart Contract Vulnerability Detection in DApps Leveraging Fine-Tuned LLM [0.7018579932647147]
分散アプリケーション(DApps)は、スマートコントラクトの脆弱性のため、重大なセキュリティリスクに直面します。
本稿では,Large Language Models (LLM) を利用したスマートコントラクト脆弱性検出手法を提案する。
論文 参考訳(メタデータ) (2025-04-07T12:32:14Z) - Making Every Step Effective: Jailbreaking Large Vision-Language Models Through Hierarchical KV Equalization [74.78433600288776]
HKVE (Hierarchical Key-Value Equalization) は、勾配最適化結果を選択的に受け入れる革新的なジェイルブレイクフレームワークである。
HKVEは既存の手法を20.43%,21.01%,26.43%のマージンで大幅に上回った。
論文 参考訳(メタデータ) (2025-03-14T17:57:42Z) - Improved Generation of Adversarial Examples Against Safety-aligned LLMs [72.38072942860309]
勾配に基づく手法を用いて生成した敵対的プロンプトは、安全対応のLDMに対して自動ジェイルブレイク攻撃を行う際、優れた性能を示す。
本稿では,この問題に対する新たな視点を探求し,トランスファーベースの攻撃にインスパイアされたイノベーションを活用することで緩和できることを示唆する。
この組み合わせによって生成されたクエリ固有逆接接尾辞の87%がLlama-2-7B-Chatを誘導し、AdvBench上のターゲット文字列と正確に一致する出力を生成することを示した。
論文 参考訳(メタデータ) (2024-05-28T06:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。