論文の概要: GoodVibe: Security-by-Vibe for LLM-Based Code Generation
- arxiv url: http://arxiv.org/abs/2602.10778v1
- Date: Wed, 11 Feb 2026 12:10:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.849068
- Title: GoodVibe: Security-by-Vibe for LLM-Based Code Generation
- Title(参考訳): GoodVibe: LLMベースのコード生成のためのセキュリティバイバイヴァイブ
- Authors: Maximilian Thang, Lichao Wu, Sasha Behrouzi, Mohamadreza Rostami, Jona te Lintelo, Stjepan Picek, Ahmad-Reza Sadeghi,
- Abstract要約: コード言語モデルのセキュリティをデフォルトで改善するための神経レベルフレームワークであるGoodVibeを提示する。
GoodVibeは、セキュリティ関連推論が神経細胞の小さなサブセットに局所化されているという重要な洞察に基づいている。
セキュリティクリティカルなプログラミング言語であるC++、Java、Swift、Goの6つのLLM上でGoodVibeを評価する。
- 参考スコア(独自算出の注目度): 21.862657015152365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used for code generation in fast, informal development workflows, often referred to as vibe coding, where speed and convenience are prioritized, and security requirements are rarely made explicit. In this setting, models frequently produce functionally correct but insecure code, creating a growing security risk. Existing approaches to improving code security rely on full-parameter fine-tuning or parameter-efficient adaptations, which are either costly and prone to catastrophic forgetting or operate at coarse granularity with limited interpretability and control. We present GoodVibe, a neuron-level framework for improving the security of code language models by default. GoodVibe is based on the key insight that security-relevant reasoning is localized to a small subset of neurons. We identify these neurons using gradient-based attribution from a supervised security task and perform neuron-selective fine-tuning that updates only this security-critical subspace. To further reduce training cost, we introduce activation-driven neuron clustering, enabling structured updates with minimal overhead. We evaluate GoodVibe on six LLMs across security-critical programming languages, including C++, Java, Swift, and Go. GoodVibe substantially improves the security of generated code while preserving general model utility, achieving up to a 2.5x improvement over base models, matching or exceeding full fine-tuning with over 4,700x fewer trainable parameters, and reducing training computation by more than 3.6x compared to the parameter-efficient baseline (LoRA). Our results demonstrate that neuron-level optimization offers an effective and scalable approach to securing code generation without sacrificing efficiency or generality.
- Abstract(参考訳): 大規模言語モデル(LLM)は、高速で非公式な開発ワークフローにおいて、スピードと利便性が優先され、セキュリティ要件が明確化されることがほとんどない、ビブコーディングと呼ばれるコード生成にますます利用されている。
この設定では、モデルが機能的に正しいが安全でないコードを頻繁に生成し、セキュリティリスクが増大する。
コードセキュリティを改善するための既存のアプローチは、完全なパラメータの微調整やパラメータ効率の適応に依存している。
コード言語モデルのセキュリティをデフォルトで改善するための神経レベルフレームワークであるGoodVibeを提示する。
GoodVibeは、セキュリティ関連推論が神経細胞の小さなサブセットに局所化されているという重要な洞察に基づいている。
我々はこれらのニューロンを、監督されたセキュリティタスクからの勾配に基づく属性を用いて識別し、このセキュリティクリティカルなサブスペースのみを更新するニューロン選択的微調整を行う。
トレーニングコストをさらに削減するため、アクティベーション駆動型ニューロンクラスタリングを導入し、最小限のオーバーヘッドで構造化された更新を可能にする。
セキュリティクリティカルなプログラミング言語であるC++、Java、Swift、Goの6つのLLM上でGoodVibeを評価する。
GoodVibeは、汎用モデルユーティリティを保ちながら生成されたコードのセキュリティを大幅に改善し、ベースモデルよりも2.5倍の改善を達成し、4,700倍以上のトレーニング可能なパラメータで完全な微調整を実現し、パラメータ効率のよいベースライン(LoRA)と比較して3.6倍以上のトレーニング計算を削減した。
その結果、ニューロンレベルの最適化は、効率や汎用性を犠牲にすることなく、コード生成を効果的かつスケーラブルにするためのアプローチを提供することを示した。
関連論文リスト
- Secure Code Generation via Online Reinforcement Learning with Vulnerability Reward Model [60.60587869092729]
大規模言語モデル(LLM)は、ソフトウェア開発でますます使われているが、安全でないコードを生成する傾向は、現実世界のデプロイメントにとって大きな障壁である。
機能保存型セキュアコード生成のためのオンライン強化学習フレームワークSecCoderXを提案する。
論文 参考訳(メタデータ) (2026-02-07T07:42:07Z) - Light Alignment Improves LLM Safety via Model Self-Reflection with a Single Neuron [28.570811283705556]
大規模言語モデル(LLM)の安全性は、その開発における基本的側面としてますます高まっている。
LLMの既存の安全アライメントは、主にポストトレーニング手法によって達成される。
本稿では,専門家モデルの低コストトレーニングのみを要し,単一のニューロンをゲーティング機構として利用する安全対応復号法を提案する。
論文 参考訳(メタデータ) (2026-02-02T12:21:54Z) - Rethinking Safety in LLM Fine-tuning: An Optimization Perspective [56.31306558218838]
我々は、本質的にトレードオフではなく、最適化の貧弱な選択が、しばしば安全上の問題を引き起こすことを示し、敵のプロンプトに対する有害な応答として測定する。
安全性能を保ったパラメータ空間における簡易指数移動平均(EMA)運動量法を提案する。
複数のデータセットにまたがるLlamaファミリーに関する実験は、安全性の問題が特別な介入なしに回避できることを実証している。
論文 参考訳(メタデータ) (2025-08-17T23:46:36Z) - Fine-Grained Safety Neurons with Training-Free Continual Projection to Reduce LLM Fine Tuning Risks [22.059668583508365]
本研究では,FGSN (Fen-Grained Safety Neurons) をトレーニング不要連続投射法で提案し,微調整安全性リスクの低減を図る。
FGSNは本質的に、安全層と神経細胞の間のマルチスケールの相互作用を統合し、スペーサーとより精密な安全ニューロンを局在させる。
論文 参考訳(メタデータ) (2025-08-08T03:20:25Z) - LoX: Low-Rank Extrapolation Robustifies LLM Safety Against Fine-tuning [61.594212398272184]
Low-Rank Extrapolation (LoX)は、良質で悪意のある微調整攻撃に対する堅牢性を改善する。
LoXは攻撃成功率を11%から54%に下げる。
論文 参考訳(メタデータ) (2025-06-18T16:30:02Z) - NLSR: Neuron-Level Safety Realignment of Large Language Models Against Harmful Fine-Tuning [37.024666077902225]
ユーザによってアップロードされた悪意のあるデータのごく一部は、微調整プロセスを微妙に操作できるため、アライメントが壊れたモデルになる。
既存の微調整攻撃に対抗する方法は、典型的にはかなりの計算資源を必要とする。
textbfNeuron-textbfLevel textbfSafety textbfRealignmentを提案する。
論文 参考訳(メタデータ) (2024-12-17T02:59:04Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。