論文の概要: Energy-Latency Attacks: A New Adversarial Threat to Deep Learning
- arxiv url: http://arxiv.org/abs/2503.04963v1
- Date: Thu, 06 Mar 2025 20:50:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:22:50.279514
- Title: Energy-Latency Attacks: A New Adversarial Threat to Deep Learning
- Title(参考訳): エネルギーレイテンシー攻撃: ディープラーニングに対する新たな敵対的脅威
- Authors: Hanene F. Z. Brachemi Meftah, Wassim Hamidouche, Sid Ahmed Fezza, Olivier Deforges,
- Abstract要約: 本稿では,エネルギー遅延攻撃に関する最近の研究の概要について概説する。
これは、この新たな攻撃パラダイムに対するディープニューラルネットワークの脆弱性に焦点を当てており、サービス停止攻撃を誘発する可能性がある。
我々は、これらの攻撃の成功を測定するために使用されるさまざまな指標を調査し、既存の攻撃戦略の分析と比較を提供する。
- 参考スコア(独自算出の注目度): 10.192836826455544
- License:
- Abstract: The growing computational demand for deep neural networks ( DNNs) has raised concerns about their energy consumption and carbon footprint, particularly as the size and complexity of the models continue to increase. To address these challenges, energy-efficient hardware and custom accelerators have become essential. Additionally, adaptable DNN s are being developed to dynamically balance performance and efficiency. The use of these strategies became more common to enable sustainable AI deployment. However, these efficiency-focused designs may also introduce vulnerabilities, as attackers can potentially exploit them to increase latency and energy usage by triggering their worst-case-performance scenarios. This new type of attack, called energy-latency attacks, has recently gained significant research attention, focusing on the vulnerability of DNN s to this emerging attack paradigm, which can trigger denial-of-service ( DoS) attacks. This paper provides a comprehensive overview of current research on energy-latency attacks, categorizing them using the established taxonomy for traditional adversarial attacks. We explore different metrics used to measure the success of these attacks and provide an analysis and comparison of existing attack strategies. We also analyze existing defense mechanisms and highlight current challenges and potential areas for future research in this developing field. The GitHub page for this work can be accessed at https://github.com/hbrachemi/Survey_energy_attacks/
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の計算需要の増加は、特にモデルのサイズと複雑さが増加し続けるにつれて、そのエネルギー消費と炭素フットプリントに対する懸念を高めている。
これらの課題に対処するためには、エネルギー効率の高いハードウェアとカスタムアクセラレータが不可欠である。
さらに、動的に性能と効率のバランスをとるために適応可能なDNNも開発されている。
これらの戦略の使用は、持続可能なAIデプロイメントを可能にするためにより一般的になった。
しかし、これらの効率性を重視した設計は脆弱性も導入する可能性がある。攻撃者は、最悪のケースパフォーマンスシナリオをトリガーすることによって、レイテンシとエネルギー使用量を増やすためにそれらを悪用する可能性がある。
エネルギー遅延攻撃(Energy-latency attack)と呼ばれるこの新しい攻撃は、最近、DNNの脆弱性と、DoS(DoS)攻撃を誘発するこの新たな攻撃パラダイムに焦点をあてて、大きな研究注目を集めている。
本稿では,従来の対人攻撃に対して確立された分類法を用いて分類し,エネルギー遅延攻撃に関する最近の研究の概要を概観する。
我々は、これらの攻撃の成功を測定するために使用されるさまざまな指標を調査し、既存の攻撃戦略の分析と比較を提供する。
また,既存の防衛機構を解析し,今後の開発分野における今後の研究の課題と可能性を強調した。
この作業のGitHubページはhttps://github.com/hbrachemi/Survey_energy_ attacks/でアクセスできる。
関連論文リスト
- Energy Backdoor Attack to Deep Neural Networks [14.40890430352325]
ディープラーニング(DL)は計算の複雑さとエネルギー使用量を増やし、エネルギー効率のよいエッジとモバイルデプロイメントにアプリケーション固有の集積回路(ASIC)を採用する。
最近の研究は、これらの加速器のエネルギー攻撃に対する脆弱性を実証している。
本稿では,疎結合型加速器で動作するディープニューラルネットワーク(DNN)に対する革新的なエネルギーバックドア攻撃を設計する。
論文 参考訳(メタデータ) (2025-01-14T14:26:18Z) - A Novel Bifurcation Method for Observation Perturbation Attacks on Reinforcement Learning Agents: Load Altering Attacks on a Cyber Physical Power System [1.7887848708497243]
本研究は,分岐層を用いたグループ差分ロジッツ損失を用いた連続制御のための新しい攻撃手法を提案する。
現実的なスマートエネルギー環境における強力な勾配に基づく攻撃の影響を実証する。
論文 参考訳(メタデータ) (2024-07-06T20:55:24Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - A Practical Adversarial Attack on Contingency Detection of Smart Energy
Systems [0.0]
本稿では,エネルギーシステムの動的制御を実質的に損なうことのできる,革新的な敵攻撃モデルを提案する。
また、深層強化学習(RL)技術を用いて、提案した敵攻撃モデルの展開を最適化する。
論文 参考訳(メタデータ) (2021-09-13T23:11:56Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Exploiting Vulnerabilities of Deep Learning-based Energy Theft Detection
in AMI through Adversarial Attacks [1.5791732557395552]
本研究では,一段階攻撃や反復攻撃を含む敵攻撃による深層学習によるエネルギー盗難検出の脆弱性について検討した。
3種類のニューラルネットワークによる評価は,DLモデルによって検出されることなく,敵攻撃者が極めて低消費電力の測定をユーティリティに報告できることを示唆している。
論文 参考訳(メタデータ) (2020-10-16T02:25:40Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Sparsity Turns Adversarial: Energy and Latency Attacks on Deep Neural
Networks [3.9193443389004887]
ディープニューラルネットワーク(DNN)のアドリアックが深刻な脆弱性を露呈
そこで本研究では,DNNの内部アクティベーション値のスパシティを低減するために,DNNの入力を逆向きに修正するスポーシティアタックを提案し,実証する。
我々は、敵対的スパシティ攻撃のホワイトボックス版とブラックボックス版の両方をローンチし、アクティベーション・スパシティーを最大1.82倍まで減少させることを示した。
論文 参考訳(メタデータ) (2020-06-14T21:02:55Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。