論文の概要: DRAINCODE: Stealthy Energy Consumption Attacks on Retrieval-Augmented Code Generation via Context Poisoning
- arxiv url: http://arxiv.org/abs/2601.20615v2
- Date: Thu, 29 Jan 2026 02:59:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 14:13:20.064012
- Title: DRAINCODE: Stealthy Energy Consumption Attacks on Retrieval-Augmented Code Generation via Context Poisoning
- Title(参考訳): DRAINCODE: コンテキストポジショニングによる検索拡張コード生成のためのステルスエネルギー消費攻撃
- Authors: Yanlin Wang, Jiadong Wu, Tianyue Jiang, Mingwei Liu, Jiachi Chen, Chong Wang, Ensheng Shi, Xilin Liu, Yuchi Ma, Zibin Zheng,
- Abstract要約: 本稿では,RAGベースのコード生成システムの計算効率を目標とした,最初の逆アタックであるDrainCodeを紹介する。
その結果,DrainCodeのレイテンシは85%増加し,エネルギー消費量は49%増加し,出力長はベースラインに比べて3倍増加した。
- 参考スコア(独自算出の注目度): 48.175253752390425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have demonstrated impressive capabilities in code generation by leveraging retrieval-augmented generation (RAG) methods. However, the computational costs associated with LLM inference, particularly in terms of latency and energy consumption, have received limited attention in the security context. This paper introduces DrainCode, the first adversarial attack targeting the computational efficiency of RAG-based code generation systems. By strategically poisoning retrieval contexts through a mutation-based approach, DrainCode forces LLMs to produce significantly longer outputs, thereby increasing GPU latency and energy consumption. We evaluate the effectiveness of DrainCode across multiple models. Our experiments show that DrainCode achieves up to an 85% increase in latency, a 49% increase in energy consumption, and more than a 3x increase in output length compared to the baseline. Furthermore, we demonstrate the generalizability of the attack across different prompting strategies and its effectiveness compared to different defenses. The results highlight DrainCode as a potential method for increasing the computational overhead of LLMs, making it useful for evaluating LLM security in resource-constrained environments. We provide code and data at https://github.com/DeepSoftwareAnalytics/DrainCode.
- Abstract(参考訳): 大規模言語モデル(LLM)は、検索拡張生成(RAG)手法を利用して、コード生成において印象的な能力を示した。
しかし、LLM推論に関連する計算コスト、特にレイテンシとエネルギー消費の面では、セキュリティの文脈において限定的な注目を集めている。
本稿では,RAGベースのコード生成システムの計算効率を目標とした,最初の逆アタックであるDrainCodeを紹介する。
突然変異ベースのアプローチで検索コンテキストを戦略的に悪用することにより、DrainCodeはLLMにかなり長い出力を出力させ、GPUレイテンシとエネルギー消費を増加させる。
複数のモデルにまたがってDrainCodeの有効性を評価する。
実験の結果,DrainCodeのレイテンシは最大85%,エネルギー消費量は49%,出力長はベースラインに比べて3倍に増加した。
さらに,異なる防御戦略に対する攻撃の一般化可能性とその効果を示す。
その結果,DrainCode は LLM の計算オーバーヘッドを増大させる潜在的手法として注目され,資源制約環境における LLM のセキュリティ評価に有用である。
私たちはhttps://github.com/DeepSoftwareAnalytics/DrainCodeでコードとデータを提供しています。
関連論文リスト
- Evaluating and Improving the Robustness of Security Attack Detectors Generated by LLMs [6.517076600304129]
大規模言語モデル(LLM)は、セキュリティ要件を実装するアタック検出器などの関数を生成するために、ソフトウェア開発でますます使われている。
本稿では,LLMパイプラインに検索拡張生成(RAG)とセルフランキングを統合するアプローチを提案する。
RAGは外部知識源を取り入れて出力の堅牢性を高める一方、自己整合性の概念にインスパイアされたセルフランキング技術は複数の推論経路を生成し、最も堅牢な検出器を選択するランクを生成する。
論文 参考訳(メタデータ) (2024-11-27T10:48:37Z) - Efficiency Unleashed: Inference Acceleration for LLM-based Recommender Systems with Speculative Decoding [61.45448947483328]
LLMベースのレコメンダシステム(LASER)の投機的復号化によるロスレス高速化について紹介する。
LASERは、検索効率を高めるためのカスタマイズされた検索プールと、ドラフトトークンの受け入れ率を改善するための緩和検証を備えている。
LASERは公開データセットの3~5倍のスピードアップを実現し、オンラインA/Bテスト中に約67%の計算リソースを節約する。
論文 参考訳(メタデータ) (2024-08-11T02:31:13Z) - ShadowCode: Towards (Automatic) External Prompt Injection Attack against Code LLMs [56.46702494338318]
本稿では,コード指向の大規模言語モデルに対する(自動)外部プロンプトインジェクションという,新たな攻撃パラダイムを紹介する。
コードシミュレーションに基づいて誘導摂動を自動生成する,シンプルで効果的な方法であるShadowCodeを提案する。
3つの人気のあるプログラミング言語にまたがる31の脅威ケースを発生させるため、13の異なる悪意のある目標に対して本手法を評価した。
論文 参考訳(メタデータ) (2024-07-12T10:59:32Z) - FFN-SkipLLM: A Hidden Gem for Autoregressive Decoding with Adaptive Feed Forward Skipping [49.66872823080736]
自己回帰型大規模言語モデル(LLaMa, GPT)は、言語理解と生成において顕著な成功を収めている。
発生時に発生する過負荷を軽減するため、いくつかの早期退避および層下降戦略が提案されている。
本稿では,入力適応型フィードフォワードスキップ戦略であるFFN-SkipLLMを提案する。
論文 参考訳(メタデータ) (2024-04-05T02:35:43Z) - Prompt Perturbation in Retrieval-Augmented Generation based Large Language Models [9.688626139309013]
Retrieval-Augmented Generationは、大規模言語モデルからテキスト生成の信頼性を向上させる手段として考えられている。
本研究では,プロンプトに短い接頭辞を挿入しても,実際の正解から遠く離れたアウトプットを生成することを発見した。
グラディエントガイドプロンプト摂動法(Gradient Guided Prompt Perturbation)と呼ばれる新しい最適化手法を提案する。
論文 参考訳(メタデータ) (2024-02-11T12:25:41Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。