論文の概要: Efficiency Robustness of Dynamic Deep Learning Systems
- arxiv url: http://arxiv.org/abs/2506.10831v1
- Date: Thu, 12 Jun 2025 15:49:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.822796
- Title: Efficiency Robustness of Dynamic Deep Learning Systems
- Title(参考訳): 動的深層学習システムの効率ロバスト性
- Authors: Ravishka Rathnasuriya, Tingxi Li, Zexin Xu, Zihe Song, Mirazul Haque, Simin Chen, Wei Yang,
- Abstract要約: 動的ディープラーニングシステム(DDLS)は、入力の複雑さに基づいて計算を適応し、オーバーヘッドを低減します。
本稿では,DDLSの効率性を体系的に検討し,効率攻撃の包括的分類を初めて提示する。
我々はDDLSの効率を目標とする敵戦略を分析し、これらのシステムを確保する上で重要な課題を特定する。
- 参考スコア(独自算出の注目度): 11.688510012136968
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep Learning Systems (DLSs) are increasingly deployed in real-time applications, including those in resourceconstrained environments such as mobile and IoT devices. To address efficiency challenges, Dynamic Deep Learning Systems (DDLSs) adapt inference computation based on input complexity, reducing overhead. While this dynamic behavior improves efficiency, such behavior introduces new attack surfaces. In particular, efficiency adversarial attacks exploit these dynamic mechanisms to degrade system performance. This paper systematically explores efficiency robustness of DDLSs, presenting the first comprehensive taxonomy of efficiency attacks. We categorize these attacks based on three dynamic behaviors: (i) attacks on dynamic computations per inference, (ii) attacks on dynamic inference iterations, and (iii) attacks on dynamic output production for downstream tasks. Through an in-depth evaluation, we analyze adversarial strategies that target DDLSs efficiency and identify key challenges in securing these systems. In addition, we investigate existing defense mechanisms, demonstrating their limitations against increasingly popular efficiency attacks and the necessity for novel mitigation strategies to secure future adaptive DDLSs.
- Abstract(参考訳): ディープラーニングシステム(DLS)は、モバイルやIoTデバイスなどのリソース制約のある環境を含む、リアルタイムアプリケーションにますます多くデプロイされている。
効率の課題に対処するため、動的ディープラーニングシステム(DDLS)は入力複雑性に基づいた推論計算を適用し、オーバーヘッドを低減した。
この動的な振る舞いは効率を向上させるが、そのような振る舞いは新たな攻撃面をもたらす。
特に、効率逆攻撃はシステム性能を低下させるためにこれらの動的メカニズムを利用する。
本稿では,DDLSの効率堅牢性を体系的に検討し,効率攻撃の包括的分類を初めて提示する。
我々は3つの動的な行動に基づいてこれらの攻撃を分類する。
(i)推論毎の動的計算に対する攻撃
(二)動的推論反復に対する攻撃、及び
(iii)下流タスクの動的出力生成に対する攻撃。
本研究は,DDLSの効率を目標とした敵戦略を詳細に評価し,これらのシステムを確保する上で重要な課題を明らかにする。
さらに,既存の防衛機構について検討し,普及する効率攻撃に対する制限と,将来の適応DDLSを確保するための新たな緩和戦略の必要性を実証する。
関連論文リスト
- Dynamic Manipulation of Deformable Objects in 3D: Simulation, Benchmark and Learning Strategy [88.8665000676562]
従来の手法は、しばしば問題を低速または2D設定に単純化し、現実の3Dタスクに適用性を制限する。
データ不足を軽減するため、新しいシミュレーションフレームワークと、低次ダイナミクスに基づくベンチマークを導入する。
本研究では,シミュレーション前トレーニングと物理インフォームドテスト時間適応を統合するフレームワークであるDynamics Informed Diffusion Policy (DIDP)を提案する。
論文 参考訳(メタデータ) (2025-05-23T03:28:25Z) - Feature Selection via GANs (GANFS): Enhancing Machine Learning Models for DDoS Mitigation [0.0]
本稿では,分散型サービス拒否(DDoS)攻撃を検出するGANFS(Generative Adversarial Network-based Feature Selection)手法を提案する。
GANを攻撃トラフィックに限定して訓練することにより、GANFSは、完全な監視に頼ることなく、機能の重要性を効果的にランク付けする。
その結果は、より適応的でスケーラブルな検出システムを構築するために、生成学習モデルをサイバーセキュリティパイプラインに統合する可能性を示している。
論文 参考訳(メタデータ) (2025-04-21T20:27:33Z) - Meta-Reinforcement Learning with Discrete World Models for Adaptive Load Balancing [0.0]
メタ強化学習アルゴリズムをDreamerV3アーキテクチャと統合して,オペレーティングシステムの負荷分散を改善する。
このアプローチは、Advantage Actor-Critic(A2C)アルゴリズムを標準および適応トライアルで上回る、最小限の再トレーニングによる動的ワークロードへの迅速な適応を可能にする。
論文 参考訳(メタデータ) (2025-03-11T20:36:49Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [70.91804882618243]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - A Dynamic Weighting Strategy to Mitigate Worker Node Failure in Distributed Deep Learning [3.0468273116892752]
本稿では分散ディープラーニングにおける様々な最適化手法について検討する。
本稿では,障害によるトラグラーノードの問題を軽減するための動的重み付け手法を提案する。
論文 参考訳(メタデータ) (2024-09-14T00:46:51Z) - Deep Reinforcement Learning for Cyber System Defense under Dynamic
Adversarial Uncertainties [5.78419291062552]
本稿では,データ駆動型深層強化学習フレームワークを提案する。
動的防御最適化問題は、異なる種類の敵に対する複数の保護姿勢で定式化される。
論文 参考訳(メタデータ) (2023-02-03T08:33:33Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Dynamics-aware Adversarial Attack of 3D Sparse Convolution Network [75.1236305913734]
ディープニューラルネットワークにおける動的に認識される敵攻撃問題について検討する。
ほとんどの既存の敵攻撃アルゴリズムは基本的な前提の下で設計されており、ネットワークアーキテクチャは攻撃プロセス全体を通して固定されている。
本稿では,LGM(Leaded Gradient Method)を提案する。
論文 参考訳(メタデータ) (2021-12-17T10:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。