論文の概要: Overload: Latency Attacks on Object Detection for Edge Devices
- arxiv url: http://arxiv.org/abs/2304.05370v2
- Date: Wed, 12 Apr 2023 05:17:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 10:54:12.518139
- Title: Overload: Latency Attacks on Object Detection for Edge Devices
- Title(参考訳): オーバーロード:エッジデバイスのオブジェクト検出における遅延攻撃
- Authors: Erh-Chung Chen, Pin-Yu Chen, I-Hsin Chung, Che-rung Lee
- Abstract要約: 本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことである。
遅延攻撃では、通常の設定に対して1枚の画像の推測時間が10倍長くなることが示される。
- 参考スコア(独自算出の注目度): 60.10849291279201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, the deployment of deep learning based applications on edge devices
is an essential task owing to the increasing demands on intelligent services.
However, the limited computing resources on edge nodes make the models
vulnerable to attacks, such that the predictions made by models are unreliable.
In this paper, we investigate latency attacks on deep learning applications.
Unlike common adversarial attacks for misclassification, the goal of latency
attacks is to increase the inference time, which may stop applications from
responding to the requests within a reasonable time. This kind of attack is
ubiquitous for various applications, and we use object detection to demonstrate
how such kind of attacks work. We also design a framework named Overload to
generate latency attacks at scale. Our method is based on a newly formulated
optimization problem and a novel technique, called spatial attention, to
increase the inference time of object detection. We have conducted experiments
using YOLOv5 models on Nvidia NX. The experimental results show that with
latency attacks, the inference time of a single image can be increased ten
times longer in reference to the normal setting. Moreover, comparing to
existing methods, our attacking method is simpler and more effective.
- Abstract(参考訳): 現在、エッジデバイスへのディープラーニングベースのアプリケーションのデプロイは、インテリジェントなサービスに対する需要の増加による重要なタスクである。
しかしながら、エッジノード上の限られたコンピューティングリソースは、モデルによる予測が信頼できないような攻撃に対して、モデルを脆弱にする。
本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことであり、アプリケーションが適切な時間内に要求に応答するのを阻止する可能性がある。
この種の攻撃はさまざまなアプリケーションにおいてユビキタスであり、このような攻撃がどのように動作するかを示すためにオブジェクト検出を使用します。
また、大規模に遅延攻撃を生成するOverloadというフレームワークも設計しています。
提案手法は,新たに定式化した最適化問題と空間的注意と呼ばれる新しい手法に基づき,物体検出の推論時間を増加させる。
我々はNvidia NX上でYOLOv5モデルを用いた実験を行った。
実験の結果, 遅延攻撃では, 単一画像の推測時間は, 通常の設定の10倍長くなることがわかった。
また,既存の手法と比較すると,攻撃方法は単純かつ効果的である。
関連論文リスト
- The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Targeted Attacks on Timeseries Forecasting [0.6719751155411076]
本稿では,時系列予測モデルに対する指向性,振幅性,時間的標的攻撃の新たな定式化を提案する。
これらの攻撃は、出力予測の振幅と方向に特定の影響を与える。
実験結果から,時系列モデルに対する標的攻撃が有効であり,統計的類似性の観点からもより強力であることが示唆された。
論文 参考訳(メタデータ) (2023-01-27T06:09:42Z) - ROOM: Adversarial Machine Learning Attacks Under Real-Time Constraints [3.042299765078767]
オフラインコンポーネントがオンラインアルゴリズムのウォームアップにどのように役立つのかを示す。
本稿では,このようなリアルタイム対向攻撃を支援するために,リアルタイム制約下で対向雑音をどうやって生成するかという問題を紹介する。
論文 参考訳(メタデータ) (2022-01-05T14:03:26Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。