論文の概要: $PD^3F$: A Pluggable and Dynamic DoS-Defense Framework Against Resource Consumption Attacks Targeting Large Language Models
- arxiv url: http://arxiv.org/abs/2505.18680v1
- Date: Sat, 24 May 2025 12:54:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.588444
- Title: $PD^3F$: A Pluggable and Dynamic DoS-Defense Framework Against Resource Consumption Attacks Targeting Large Language Models
- Title(参考訳): $PD^3F$:大規模言語モデルをターゲットにしたリソース消費攻撃に対するプラガブルで動的DoS-Defenseフレームワーク
- Authors: Yuanhe Zhang, Xinyue Wang, Haoran Gao, Zhenhong Zhou, Fanyu Meng, Yuyao Zhang, Sen Su,
- Abstract要約: 大規模言語モデル(LLM)は、リソース消費攻撃に対して脆弱であり、サーバのパフォーマンスを著しく低下させたり、クラッシュの原因になったりする。
本稿では,資源消費攻撃に対する2段階のアプローチを取り入れたPlugable and Dynamic DoS-Defense Framework(PD3F$)を提案する。
PD3F$は、リソース消費攻撃を著しく軽減し、敵の負荷時に最大500%のアクセス容量を改善する。
- 参考スコア(独自算出の注目度): 9.585089414738542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs), due to substantial computational requirements, are vulnerable to resource consumption attacks, which can severely degrade server performance or even cause crashes, as demonstrated by denial-of-service (DoS) attacks designed for LLMs. However, existing works lack mitigation strategies against such threats, resulting in unresolved security risks for real-world LLM deployments. To this end, we propose the Pluggable and Dynamic DoS-Defense Framework ($PD^3F$), which employs a two-stage approach to defend against resource consumption attacks from both the input and output sides. On the input side, we propose the Resource Index to guide Dynamic Request Polling Scheduling, thereby reducing resource usage induced by malicious attacks under high-concurrency scenarios. On the output side, we introduce the Adaptive End-Based Suppression mechanism, which terminates excessive malicious generation early. Experiments across six models demonstrate that $PD^3F$ significantly mitigates resource consumption attacks, improving users' access capacity by up to 500% during adversarial load. $PD^3F$ represents a step toward the resilient and resource-aware deployment of LLMs against resource consumption attacks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、かなりの計算要求のため、LLM用に設計されたDoS攻撃(Denial-of-Service)によって示されるように、リソース消費攻撃に対して脆弱であり、サーバのパフォーマンスを著しく低下させるか、あるいはクラッシュを引き起こす可能性がある。
しかし、既存の作業ではこのような脅威に対する緩和戦略が欠如しており、現実のLLMデプロイメントにおいて未解決のセキュリティリスクが発生している。
この目的のために,入力側と出力側の両方からのリソース消費攻撃を防御する2段階のアプローチを用いて,Pluggable and Dynamic DoS-Defense Framework(PD^3F$)を提案する。
入力側では、動的リクエストポーリングスケジューリングをガイドするリソースインデックスを提案し、これにより、高コンカレンシーシナリオ下で悪意ある攻撃によって引き起こされるリソース使用量を削減する。
出力側では、過度に悪意のある生成を早期に終了するAdaptive End-Based Suppression機構を導入する。
6つのモデルに対する実験により、$PD^3F$はリソース消費攻撃を著しく軽減し、対向負荷時に最大500%のアクセス能力を向上させることが示された。
PD^3F$は、リソース消費攻撃に対するLLMのレジリエントでリソース対応のデプロイメントに向けたステップである。
関連論文リスト
- Iterative Self-Tuning LLMs for Enhanced Jailbreaking Capabilities [63.603861880022954]
本稿では,対戦型LDMをジェイルブレイク能力に富んだ反復的自己調整プロセスであるADV-LLMを紹介する。
我々のフレームワークは,様々なオープンソース LLM 上で ASR を100% 近く達成しながら,逆接接尾辞を生成する計算コストを大幅に削減する。
Llama3のみに最適化されているにもかかわらず、GPT-3.5では99%のASR、GPT-4では49%のASRを達成している。
論文 参考訳(メタデータ) (2024-10-24T06:36:12Z) - Harnessing Task Overload for Scalable Jailbreak Attacks on Large Language Models [8.024771725860127]
大きな言語モデル(LLM)は、安全メカニズムをバイパスするジェイルブレイク攻撃に対して脆弱なままである。
我々は, LLMの安全性ポリシーの活性化を前提として, 計算資源を占有する新しい拡張性のあるジェイルブレイク攻撃を導入する。
論文 参考訳(メタデータ) (2024-10-05T15:10:01Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Multi-Level ML Based Burst-Aware Autoscaling for SLO Assurance and Cost
Efficiency [3.5624365288866007]
本稿では、複雑なワークロード下でコンテナ化されたクラウドサービスやアプリケーションのためのBurst-Aware AutoscalingフレームワークであるBAScalerを紹介します。
BAScalerには、予測可能な周期的なワークロードスパイクと実際のバーストを区別する、予測に基づく新しいバースト検出機構が組み込まれている。
論文 参考訳(メタデータ) (2024-02-20T12:28:25Z) - Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard
Security Attacks [67.86285142381644]
命令追従型大規模言語モデルの最近の進歩は、悪意のある目的のために二重使用リスクを増幅する。
命令追従機能がコンピュータセキュリティの標準的な攻撃を可能にするため、デュアルユースを防ぐのは難しい。
本研究では,LLMがヘイトスピーチや詐欺などの悪意のあるコンテンツをターゲットにすることができることを示す。
論文 参考訳(メタデータ) (2023-02-11T15:57:44Z) - ReLeaSER: A Reinforcement Learning Strategy for Optimizing Utilization
Of Ephemeral Cloud Resources [2.205500582481277]
本稿では,クラウド上での短命資源の利用を最適化するための強化学習戦略を提案する。
私たちのソリューションはSLA違反の罰則を平均2.7倍、最大3.4倍に大幅に削減します。
またCPの貯蓄率を平均で27.6%、最大で43.6%向上させる。
論文 参考訳(メタデータ) (2020-09-23T15:19:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。