論文の概要: Exploiting Efficiency Vulnerabilities in Dynamic Deep Learning Systems
- arxiv url: http://arxiv.org/abs/2506.17621v1
- Date: Sat, 21 Jun 2025 07:13:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.507554
- Title: Exploiting Efficiency Vulnerabilities in Dynamic Deep Learning Systems
- Title(参考訳): 動的深層学習システムにおける効率脆弱性の爆発
- Authors: Ravishka Rathnasuriya, Wei Yang,
- Abstract要約: 本研究は,ディープラーニングシステム(DDLS)における動的挙動のセキュリティへの影響について検討する。
我々は、現在のシステムが、敵入力によって悪用可能な効率上の脆弱性をいかに公開しているかを示す。
本稿では,現代DDLSに対する効率攻撃の実現可能性について検討し,目標防衛を開発することを提案する。
- 参考スコア(独自算出の注目度): 3.5986950487788185
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The growing deployment of deep learning models in real-world environments has intensified the need for efficient inference under strict latency and resource constraints. To meet these demands, dynamic deep learning systems (DDLSs) have emerged, offering input-adaptive computation to optimize runtime efficiency. While these systems succeed in reducing cost, their dynamic nature introduces subtle and underexplored security risks. In particular, input-dependent execution pathways create opportunities for adversaries to degrade efficiency, resulting in excessive latency, energy usage, and potential denial-of-service in time-sensitive deployments. This work investigates the security implications of dynamic behaviors in DDLSs and reveals how current systems expose efficiency vulnerabilities exploitable by adversarial inputs. Through a survey of existing attack strategies, we identify gaps in the coverage of emerging model architectures and limitations in current defense mechanisms. Building on these insights, we propose to examine the feasibility of efficiency attacks on modern DDLSs and develop targeted defenses to preserve robustness under adversarial conditions.
- Abstract(参考訳): 現実世界の環境におけるディープラーニングモデルの展開の増加により、厳格なレイテンシとリソース制約の下での効率的な推論の必要性が高まっている。
これらの要求を満たすため、動的ディープラーニングシステム(DDLS)が登場し、実行時の効率を最適化するために入力適応型計算を提供する。
これらのシステムはコスト削減に成功しているが、そのダイナミックな性質は微妙で未調査のセキュリティリスクをもたらす。
特に、入力に依存した実行経路は、敵が効率を低下させる機会を生み出し、時間に敏感なデプロイメントにおいて過度なレイテンシ、エネルギー使用量、潜在的なサービス拒否をもたらす。
本研究は,DDLSにおける動的挙動のセキュリティへの影響について検討し,敵入力によって悪用可能な効率上の脆弱性を明らかにする。
既存の攻撃戦略の調査を通じて、新しいモデルアーキテクチャのカバレッジと現在の防御機構の限界を特定する。
これらの知見に基づいて,現代のDDLSに対する効率攻撃の可能性を検討するとともに,敵の条件下での堅牢性を維持するための目標防御を開発することを提案する。
関連論文リスト
- Efficiency Robustness of Dynamic Deep Learning Systems [11.688510012136968]
動的ディープラーニングシステム(DDLS)は、入力の複雑さに基づいて計算を適応し、オーバーヘッドを低減します。
本稿では,DDLSの効率性を体系的に検討し,効率攻撃の包括的分類を初めて提示する。
我々はDDLSの効率を目標とする敵戦略を分析し、これらのシステムを確保する上で重要な課題を特定する。
論文 参考訳(メタデータ) (2025-06-12T15:49:01Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - Deep-Learning-Directed Preventive Dynamic Security Control via Coordinated Demand Response [0.0]
電力系統の3相短絡断層は重大な問題を引き起こす。
これらの障害は、OOS(out-of-step)条件につながり、システムの動的セキュリティを損なう可能性がある。
本稿では,OOS条件を早期に予測し,システムの耐障害性を高めるために,注目機構を備えた畳み込みニューラルネットワークという,エンドツーエンドのディープラーニングに基づくメカニズムを提案する。
論文 参考訳(メタデータ) (2025-04-05T04:46:36Z) - DSMoE: Matrix-Partitioned Experts with Dynamic Routing for Computation-Efficient Dense LLMs [70.91804882618243]
本稿では,事前学習したFFN層を計算ブロックに分割することで,分散化を実現するDSMoEを提案する。
我々は,Sigmoid アクティベーションとストレートスルー推定器を用いた適応型エキスパートルーティングを実装し,トークンがモデル知識の様々な側面に柔軟にアクセスできるようにする。
LLaMAモデルを用いた実験により、DSMoEは既存のプルーニング法やMoE法に比べて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-02-18T02:37:26Z) - Dynamic Vulnerability Criticality Calculator for Industrial Control Systems [0.0]
本稿では,動的脆弱性臨界計算機を提案する革新的な手法を提案する。
本手法は, 環境トポロジの分析と, 展開されたセキュリティ機構の有効性を包含する。
本手法では,これらの要因を総合的なファジィ認知マップモデルに統合し,攻撃経路を組み込んで全体の脆弱性スコアを総合的に評価する。
論文 参考訳(メタデータ) (2024-03-20T09:48:47Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Embodied Laser Attack:Leveraging Scene Priors to Achieve Agent-based Robust Non-contact Attacks [13.726534285661717]
本稿では,非接触レーザー攻撃を動的に調整する新しい枠組みであるEmbodied Laser Attack (ELA)を紹介する。
認識モジュールのために,ERAは交通シーンの本質的な事前知識に基づいて,局所的な視点変換ネットワークを革新的に開発してきた。
決定と制御モジュールのために、ERAは時間を要するアルゴリズムを採用する代わりに、データ駆動の強化学習で攻撃エージェントを訓練する。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。