論文の概要: Sponge Attacks on Sensing AI: Energy-Latency Vulnerabilities and Defense via Model Pruning
- arxiv url: http://arxiv.org/abs/2505.06454v1
- Date: Fri, 09 May 2025 22:10:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.847528
- Title: Sponge Attacks on Sensing AI: Energy-Latency Vulnerabilities and Defense via Model Pruning
- Title(参考訳): AIを検知するスポンジ攻撃: モデルプルーニングによるエネルギーレイテンシの脆弱性と防御
- Authors: Syed Mhamudul Hasan, Hussein Zangoti, Iraklis Anagnostopoulos, Abdur R. Shahid,
- Abstract要約: 最近の研究では、スポンジ攻撃はディープニューラルネットワーク(DNN)のエネルギー消費と推論遅延を大幅に増加させることが示されている。
これらの攻撃は、バッテリ容量とリアルタイム応答性に限界があるシステムにおいて、エネルギーの枯渇と遅延劣化の深刻な脅威を引き起こす。
本稿では,センサベースAIモデルを対象とした,エネルギー遅延スポンジ攻撃の体系的検討を行う。
また,資源制約型AIの圧縮技術として広く採用されているモデルプルーニングについても検討した。
- 参考スコア(独自算出の注目度): 0.44784055850794474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown that sponge attacks can significantly increase the energy consumption and inference latency of deep neural networks (DNNs). However, prior work has focused primarily on computer vision and natural language processing tasks, overlooking the growing use of lightweight AI models in sensing-based applications on resource-constrained devices, such as those in Internet of Things (IoT) environments. These attacks pose serious threats of energy depletion and latency degradation in systems where limited battery capacity and real-time responsiveness are critical for reliable operation. This paper makes two key contributions. First, we present the first systematic exploration of energy-latency sponge attacks targeting sensing-based AI models. Using wearable sensing-based AI as a case study, we demonstrate that sponge attacks can substantially degrade performance by increasing energy consumption, leading to faster battery drain, and by prolonging inference latency. Second, to mitigate such attacks, we investigate model pruning, a widely adopted compression technique for resource-constrained AI, as a potential defense. Our experiments show that pruning-induced sparsity significantly improves model resilience against sponge poisoning. We also quantify the trade-offs between model efficiency and attack resilience, offering insights into the security implications of model compression in sensing-based AI systems deployed in IoT environments.
- Abstract(参考訳): 近年の研究では、スポンジ攻撃はディープニューラルネットワーク(DNN)のエネルギー消費と推論遅延を大幅に増加させることが示されている。
しかし、以前の作業は主にコンピュータビジョンと自然言語処理タスクに重点を置いており、IoT(Internet of Things)環境のようなリソース制約のあるデバイス上でのセンサーベースのアプリケーションにおける軽量AIモデルの利用の増加を見越している。
これらの攻撃は、バッテリ容量の制限とリアルタイム応答性が信頼性の高い運用に不可欠であるシステムにおいて、エネルギー枯渇と遅延劣化の深刻な脅威を引き起こす。
この論文は2つの重要な貢献をする。
まず,センサベースAIモデルを対象とした,エネルギー遅延スポンジ攻撃の体系的検討を行った。
ウェアラブルセンシングベースのAIをケーススタディとして、スポンジ攻撃がエネルギー消費を増加させ、バッテリドレインが速くなり、推論遅延が長くなることにより、パフォーマンスが著しく低下することを示した。
第2に、このような攻撃を緩和するために、資源制約型AIの広く採用されている圧縮技術であるモデルプルーニングを、潜在的防御として検討する。
以上の結果より, プルーニングによるスポンジ中毒に対するモデルレジリエンスは有意に向上することが示唆された。
また、モデル効率とアタックレジリエンスのトレードオフを定量化し、IoT環境にデプロイされたセンサーベースのAIシステムにおけるモデル圧縮のセキュリティへの影響に関する洞察を提供する。
関連論文リスト
- Energy-Latency Attacks: A New Adversarial Threat to Deep Learning [10.192836826455544]
本稿では,エネルギー遅延攻撃に関する最近の研究の概要について概説する。
これは、この新たな攻撃パラダイムに対するディープニューラルネットワークの脆弱性に焦点を当てており、サービス停止攻撃を誘発する可能性がある。
我々は、これらの攻撃の成功を測定するために使用されるさまざまな指標を調査し、既存の攻撃戦略の分析と比較を提供する。
論文 参考訳(メタデータ) (2025-03-06T20:50:58Z) - The Impact of Uniform Inputs on Activation Sparsity and Energy-Latency Attacks in Computer Vision [4.45482419850721]
研究者は最近、ニューラルネットワークのエネルギー消費と決定レイテンシを高めるために、攻撃者が推論時にいわゆるスポンジ例を計算し、提出できることを実証した。
コンピュータビジョンでは、提案された戦略は、計算の高速化に使用可能なアクティベーションの間隔を小さくして入力を作成する。
均一な画像、すなわち、主に平坦で均一に色のついた表面を持つ画像は、畳み込み、バッチ正規化、ReLUアクティベーションの特定の相互作用により、より多くのアクティベーションをトリガーする。
論文 参考訳(メタデータ) (2024-03-27T14:11:23Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Green Edge AI: A Contemporary Survey [46.11332733210337]
AIの変換力は、ディープニューラルネットワーク(DNN)の利用から導かれる。
ディープラーニング(DL)は、エンドユーザーデバイス(EUD)に近い無線エッジネットワークに移行しつつある。
その可能性にもかかわらず、エッジAIは大きな課題に直面している。主な原因は、無線エッジネットワークのリソース制限と、DLのリソース集約的な性質の分離である。
論文 参考訳(メタデータ) (2023-12-01T04:04:37Z) - Causal Reasoning: Charting a Revolutionary Course for Next-Generation
AI-Native Wireless Networks [63.246437631458356]
次世代無線ネットワーク(例:6G)は人工知能(AI)ネイティブである。
本稿では、新たな因果推論分野を基盤として、AIネイティブな無線ネットワークを構築するための新しいフレームワークを紹介する。
因果発見と表現によって対処できる無線ネットワークの課題をいくつか挙げる。
論文 参考訳(メタデータ) (2023-09-23T00:05:39Z) - Energy-Latency Attacks via Sponge Poisoning [21.06661263745426]
スポンジの例は、ハードウェアアクセラレータにデプロイされたディープネットワークのエネルギー消費と予測レイテンシを向上させるために最適化されたテスト時間入力である。
我々はスポンジ中毒(sponge poisoning)と呼ばれる新しい訓練時間攻撃を提案し、分類精度に影響を与えることなく、任意のテスト入力上でのニューラルネットワークのエネルギー消費と予測遅延を悪化させることを目的としている。
論文 参考訳(メタデータ) (2022-03-14T17:18:10Z) - A Practical Adversarial Attack on Contingency Detection of Smart Energy
Systems [0.0]
本稿では,エネルギーシステムの動的制御を実質的に損なうことのできる,革新的な敵攻撃モデルを提案する。
また、深層強化学習(RL)技術を用いて、提案した敵攻撃モデルの展開を最適化する。
論文 参考訳(メタデータ) (2021-09-13T23:11:56Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。