論文の概要: Large Language Models for Code: Security Hardening and Adversarial
Testing
- arxiv url: http://arxiv.org/abs/2302.05319v4
- Date: Fri, 29 Sep 2023 13:53:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 19:16:22.964400
- Title: Large Language Models for Code: Security Hardening and Adversarial
Testing
- Title(参考訳): コードのための大規模言語モデル: セキュリティ強化と逆行テスト
- Authors: Jingxuan He and Martin Vechev
- Abstract要約: 大規模な言語モデル(大規模なLM)は、大規模なベクトルで訓練され、コードを生成するのに使われている。
本研究は, (i) セキュアコード生成におけるLMの信頼性向上を目的としたセキュリティ強化, (ii) 敵検定, (ii) 敵検定, 敵検定の2つの重要な軸に沿ったLMのセキュリティについて検討する。
- 参考スコア(独自算出の注目度): 7.315482472726556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (large LMs) are increasingly trained on massive
codebases and used to generate code. However, LMs lack awareness of security
and are found to frequently produce unsafe code. This work studies the security
of LMs along two important axes: (i) security hardening, which aims to enhance
LMs' reliability in generating secure code, and (ii) adversarial testing, which
seeks to evaluate LMs' security at an adversarial standpoint. We address both
of these by formulating a new security task called controlled code generation.
The task is parametric and takes as input a binary property to guide the LM to
generate secure or unsafe code, while preserving the LM's capability of
generating functionally correct code. We propose a novel learning-based
approach called SVEN to solve this task. SVEN leverages property-specific
continuous vectors to guide program generation towards the given property,
without modifying the LM's weights. Our training procedure optimizes these
continuous vectors by enforcing specialized loss terms on different regions of
code, using a high-quality dataset carefully curated by us. Our extensive
evaluation shows that SVEN is highly effective in achieving strong security
control. For instance, a state-of-the-art CodeGen LM with 2.7B parameters
generates secure code for 59.1% of the time. When we employ SVEN to perform
security hardening (or adversarial testing) on this LM, the ratio is
significantly boosted to 92.3% (or degraded to 36.8%). Importantly, SVEN
closely matches the original LMs in functional correctness.
- Abstract(参考訳): 大きな言語モデル(大きなlms)は、ますます巨大なコードベースで訓練され、コードを生成するのに使われる。
しかし、LMはセキュリティを意識せず、しばしば安全でないコードを生成する。
この研究は、2つの重要な軸に沿ってlmsのセキュリティを研究する。
(i)セキュアコード生成におけるlmsの信頼性向上を目的としたセキュリティ強化
(ii)敵対的立場からlsmのセキュリティを評価しようとする敵対的テスト。
制御コード生成と呼ばれる新しいセキュリティタスクを定式化することで、これら2つに対処する。
タスクはパラメトリックであり、LMが機能的に正しいコードを生成する能力を保持しながら、LMを誘導して安全または安全でないコードを生成するためにバイナリプロパティを入力する。
この課題を解決するために,SVENと呼ばれる新しい学習手法を提案する。
SVENはプロパティ固有の連続ベクトルを利用して、LMの重みを変更することなくプログラム生成を与えられたプロパティへ導く。
トレーニング手順は、コードの各領域に特別な損失項を強制することにより、これらの連続ベクトルを最適化する。
SVENは強力なセキュリティ制御を実現する上で極めて有効であることを示す。
例えば、2.7Bパラメータを持つ最先端のCodeGen LMは59.1%の時間でセキュアなコードを生成する。
このLM上でセキュリティ強化(または敵検定)を行うためにSVENを使用する場合、比率は92.3%(または36.8%に低下)に大幅に向上する。
重要なことに、SVENは機能的正確性において元のLMと密接に一致している。
関連論文リスト
- CoCA: Regaining Safety-awareness of Multimodal Large Language Models with Constitutional Calibration [90.36429361299807]
マルチモーダルな大言語モデル (MLLM) は、視覚的な入力を含む会話への関与において顕著な成功を収めている。
視覚的モダリティの統合は、MLLMが悪意のある視覚的入力に影響を受けやすいという、ユニークな脆弱性を導入している。
本稿では,出力分布を校正することでMLLMの安全性を向上するCoCA技術を紹介する。
論文 参考訳(メタデータ) (2024-09-17T17:14:41Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - What Makes and Breaks Safety Fine-tuning? A Mechanistic Study [64.9691741899956]
安全性の微調整は、大規模な言語モデル(LLM)を、安全なデプロイメントのための人間の好みに合わせるのに役立つ。
安全でない入力の健全な側面をキャプチャする合成データ生成フレームワークを設計する。
これを用いて,3つのよく知られた安全微調整手法について検討する。
論文 参考訳(メタデータ) (2024-07-14T16:12:57Z) - Constrained Decoding for Secure Code Generation [9.007821185927277]
本稿では、コードLLMがセキュアかつ正しいコードを生成する能力を測定するための新しいベンチマークであるCodeGuard+を紹介する。
我々は,現在最先端の防御技術であるプレフィックスチューニングが,セキュアなコードを生成するが機能的正当性を犠牲にしているため,従来考えられていたほど強力ではないことを示す。
セキュアなコードを生成するための制約付き復号法を提案する。
論文 参考訳(メタデータ) (2024-04-30T21:52:19Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - ROSE Doesn't Do That: Boosting the Safety of Instruction-Tuned Large Language Models with Reverse Prompt Contrastive Decoding [89.0074567748505]
本稿では,既存の命令調整LDMの安全性を高めるための簡易な手法であるROSE(Reverse prompt contrastive decoding)を提案する。
6つの安全性と2つの汎用タスクの実験から、ROSEは5種類の命令調整LDMに対して、一貫した、重要な安全性向上(+13.8%の安全性スコア)をもたらすだけでなく、LLMの汎用能力にも恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2024-02-19T06:58:42Z) - Instruction Tuning for Secure Code Generation [6.043526197249358]
既存の命令チューニングスキームは、生成されたコードのセキュリティという重要な側面を見落としている。
SafeCoderは、多種多様な高品質データセットを使用して、セキュリティ中心の微調整を実行する。
ユーティリティを保ちながら、セキュリティを大幅に改善できます(約30%)。
論文 参考訳(メタデータ) (2024-02-14T15:47:46Z) - Code Security Vulnerability Repair Using Reinforcement Learning with
Large Language Models [1.5457286059556397]
大規模言語モデル(LLM)から生成されたコードのセキュリティ強化と強化のための強化学習に基づく手法を提案する。
本研究では,コードにセキュリティと機能的対策を加えることに集中する意味的報酬機構と統語的報酬機構を組み合わせることで,プログラム固有の修復を行うための強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-13T10:19:26Z) - SALLM: Security Assessment of Generated Code [0.5137309756089941]
本稿では,セキュアなコードを体系的に生成する大規模言語モデルの能力をベンチマークするフレームワークであるSALLMについて述べる。
フレームワークには3つの主要なコンポーネントがある。セキュリティ中心のPythonプロンプトの新たなデータセット、生成されたコードを評価するための評価テクニック、セキュアなコード生成の観点からモデルのパフォーマンスを評価するための新しいメトリクスである。
論文 参考訳(メタデータ) (2023-11-01T22:46:31Z) - Identifying the Risks of LM Agents with an LM-Emulated Sandbox [68.26587052548287]
言語モデル(LM)エージェントとツールは、豊富な機能セットを可能にすると同時に、潜在的なリスクを増幅する。
これらのエージェントを高いコストでテストすることは、高いリスクと長い尾のリスクを見つけるのをますます困難にします。
ツール実行をエミュレートするためにLMを使用し、さまざまなツールやシナリオに対してLMエージェントのテストを可能にするフレームワークであるToolEmuを紹介します。
論文 参考訳(メタデータ) (2023-09-25T17:08:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。