論文の概要: LoopLLM: Transferable Energy-Latency Attacks in LLMs via Repetitive Generation
- arxiv url: http://arxiv.org/abs/2511.07876v1
- Date: Wed, 12 Nov 2025 01:25:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.516632
- Title: LoopLLM: Transferable Energy-Latency Attacks in LLMs via Repetitive Generation
- Title(参考訳): LoopLLM:繰り返し発生によるLDMの移動可能エネルギーレイテンシー攻撃
- Authors: Xingyu Li, Xiaolei Liu, Cheng Liu, Yixiao Xu, Kangyi Ding, Bangzhou Xin, Jia-Li Yin,
- Abstract要約: 大規模言語モデル(LLM)がスケールするにつれて、その推論はかなりの計算資源を発生させ、それらがエネルギー遅延攻撃に晒される。
繰り返し生成が低エントロピーデコードループを発生させるという観測に基づくエネルギー遅延攻撃フレームワークであるLoopLLMを提案する。
- 参考スコア(独自算出の注目度): 28.143537154570723
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As large language models (LLMs) scale, their inference incurs substantial computational resources, exposing them to energy-latency attacks, where crafted prompts induce high energy and latency cost. Existing attack methods aim to prolong output by delaying the generation of termination symbols. However, as the output grows longer, controlling the termination symbols through input becomes difficult, making these methods less effective. Therefore, we propose LoopLLM, an energy-latency attack framework based on the observation that repetitive generation can trigger low-entropy decoding loops, reliably compelling LLMs to generate until their output limits. LoopLLM introduces (1) a repetition-inducing prompt optimization that exploits autoregressive vulnerabilities to induce repetitive generation, and (2) a token-aligned ensemble optimization that aggregates gradients to improve cross-model transferability. Extensive experiments on 12 open-source and 2 commercial LLMs show that LoopLLM significantly outperforms existing methods, achieving over 90% of the maximum output length, compared to 20% for baselines, and improving transferability by around 40% to DeepSeek-V3 and Gemini 2.5 Flash.
- Abstract(参考訳): 大規模言語モデル(LLM)がスケールするにつれて、その推論は相当な計算資源を発生させ、それらをエネルギーレイテンシー攻撃に晒し、クラフトプロンプトによって高エネルギーと遅延コストが生じる。
既存の攻撃方法は、終了記号の生成を遅らせることで出力を延ばすことを目的としている。
しかし、出力が長くなるにつれて、入力による終端記号の制御が難しくなり、これらの手法の有効性が低下する。
そこで本研究では、繰り返し生成が低エントロピーデコードループをトリガーし、出力限界までLLMを確実に生成する、という観測に基づくエネルギー遅延攻撃フレームワークであるLoopLLMを提案する。
LoopLLMは、(1)自己回帰的脆弱性を利用して繰り返し生成を誘導する繰り返し誘導的プロンプト最適化、(2)モデルの相互転送性を改善するために勾配を集約するトークン整合型アンサンブル最適化を導入する。
12のオープンソースと2つの商用 LLM に関する大規模な実験によると、LoopLLM は、ベースラインの20%に対して最大出力長の90%以上を達成し、DeepSeek-V3 と Gemini 2.5 Flash への転送可能性約40%向上した。
関連論文リスト
- Loopholing Discrete Diffusion: Deterministic Bypass of the Sampling Wall [28.243098541421755]
決定論的潜在経路を介して情報を保存する,新規でシンプルな機構であるLoopholingを紹介する。
LDDMは、以前のベースラインよりも最大で61%高い生成的パープレキシティを著しく向上させる。
また、ループホリングはアイドルステップや振動を緩和し、高品質な非自己回帰テキスト生成へのスケーラブルな経路を提供することを示す。
論文 参考訳(メタデータ) (2025-10-22T07:08:47Z) - Saber: An Efficient Sampling with Adaptive Acceleration and Backtracking Enhanced Remasking for Diffusion Language Model [98.35868970993232]
拡散言語モデル(DLM)は、支配的な自己回帰パラダイムに代わる強力で有望な選択肢として現れています。
コード生成における推論速度と出力品質の向上を実現するために,適応加速度を用いた効率的なサンプリングとバックトラック強化リマッシング(セイバー)を導入する。
論文 参考訳(メタデータ) (2025-10-20T23:38:12Z) - Beyond Fixed: Training-Free Variable-Length Denoising for Diffusion Large Language Models [74.15250326312179]
拡散大言語モデルは効率的な並列生成とグローバルモデリングを提供する。
DLLMの主流の応用は、静的に事前定義された生成長の必要性によって妨げられている。
DAEDALは,動的適応長拡張を可能にする新しい学習自由化戦略である。
論文 参考訳(メタデータ) (2025-08-01T17:56:07Z) - PowerAttention: Exponentially Scaling of Receptive Fields for Effective Sparse Attention [73.26995918610669]
大きな言語モデル(LLM)は、長いコンテキストを処理する場合の注意機構の二次的な複雑さによって、効率のボトルネックに直面します。
本稿では,効果的かつ完全なコンテキスト拡張を容易にする新しいスパークアテンション設計であるPowerAttentionを紹介する。
実験によると、PowerAttentionは既存の静的スパースアテンションメソッドを5sim 40%$で上回っている。
論文 参考訳(メタデータ) (2025-03-05T15:24:11Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - ShiftAddLLM: Accelerating Pretrained LLMs via Post-Training Multiplication-Less Reparameterization [13.622268474310918]
ShiftAddLLMは大規模言語モデルの効率的な乗算自由モデルである。
5.6および22.7ポイントのパープレキシティ改善を同等または低いレイテンシで達成する。
5つのLLMファミリーと8つのタスクの実験は、ShiftAddLLMの有効性を一貫して検証している。
論文 参考訳(メタデータ) (2024-06-10T02:47:55Z) - Chain of Evidences and Evidence to Generate: Prompting for Context Grounded and Retrieval Augmented Reasoning [3.117335706912261]
チェイン・オブ・エビデンス(CoE)とエビデンス・トゥ・ジェネレーション(E2G)は2つのユニークな戦略に基づいて構築されている。
根拠のない推論の主張の代わりに、我々の革新的なアプローチは「意思決定の証拠」の力を利用する。
我々のフレームワークは、様々な知識集約的推論および生成タスクにおいて、常に顕著な結果を達成する。
論文 参考訳(メタデータ) (2024-01-11T09:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。