論文の概要: Overload: Latency Attacks on Object Detection for Edge Devices
- arxiv url: http://arxiv.org/abs/2304.05370v2
- Date: Wed, 12 Apr 2023 05:17:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 10:54:12.518139
- Title: Overload: Latency Attacks on Object Detection for Edge Devices
- Title(参考訳): オーバーロード:エッジデバイスのオブジェクト検出における遅延攻撃
- Authors: Erh-Chung Chen, Pin-Yu Chen, I-Hsin Chung, Che-rung Lee
- Abstract要約: 本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことである。
遅延攻撃では、通常の設定に対して1枚の画像の推測時間が10倍長くなることが示される。
- 参考スコア(独自算出の注目度): 60.10849291279201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, the deployment of deep learning based applications on edge devices
is an essential task owing to the increasing demands on intelligent services.
However, the limited computing resources on edge nodes make the models
vulnerable to attacks, such that the predictions made by models are unreliable.
In this paper, we investigate latency attacks on deep learning applications.
Unlike common adversarial attacks for misclassification, the goal of latency
attacks is to increase the inference time, which may stop applications from
responding to the requests within a reasonable time. This kind of attack is
ubiquitous for various applications, and we use object detection to demonstrate
how such kind of attacks work. We also design a framework named Overload to
generate latency attacks at scale. Our method is based on a newly formulated
optimization problem and a novel technique, called spatial attention, to
increase the inference time of object detection. We have conducted experiments
using YOLOv5 models on Nvidia NX. The experimental results show that with
latency attacks, the inference time of a single image can be increased ten
times longer in reference to the normal setting. Moreover, comparing to
existing methods, our attacking method is simpler and more effective.
- Abstract(参考訳): 現在、エッジデバイスへのディープラーニングベースのアプリケーションのデプロイは、インテリジェントなサービスに対する需要の増加による重要なタスクである。
しかしながら、エッジノード上の限られたコンピューティングリソースは、モデルによる予測が信頼できないような攻撃に対して、モデルを脆弱にする。
本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことであり、アプリケーションが適切な時間内に要求に応答するのを阻止する可能性がある。
この種の攻撃はさまざまなアプリケーションにおいてユビキタスであり、このような攻撃がどのように動作するかを示すためにオブジェクト検出を使用します。
また、大規模に遅延攻撃を生成するOverloadというフレームワークも設計しています。
提案手法は,新たに定式化した最適化問題と空間的注意と呼ばれる新しい手法に基づき,物体検出の推論時間を増加させる。
我々はNvidia NX上でYOLOv5モデルを用いた実験を行った。
実験の結果, 遅延攻撃では, 単一画像の推測時間は, 通常の設定の10倍長くなることがわかった。
また,既存の手法と比較すると,攻撃方法は単純かつ効果的である。
関連論文リスト
- BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - A Human-in-the-Middle Attack against Object Detection Systems [4.764637544913963]
本稿では,暗号におけるman-in-the-Middle攻撃に触発された新たなハードウェア攻撃を提案する。
この攻撃はUAP(Universal Adversarial Perturbations)を生成し、USBカメラと検出システムとの間の摂動を注入する。
これらの知見は、自律運転のような安全クリティカルなシステムにおけるディープラーニングモデルの適用に対する深刻な懸念を提起する。
論文 参考訳(メタデータ) (2022-08-15T13:21:41Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - ROOM: Adversarial Machine Learning Attacks Under Real-Time Constraints [3.042299765078767]
オフラインコンポーネントがオンラインアルゴリズムのウォームアップにどのように役立つのかを示す。
本稿では,このようなリアルタイム対向攻撃を支援するために,リアルタイム制約下で対向雑音をどうやって生成するかという問題を紹介する。
論文 参考訳(メタデータ) (2022-01-05T14:03:26Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。