論文の概要: Overload: Latency Attacks on Object Detection for Edge Devices
- arxiv url: http://arxiv.org/abs/2304.05370v3
- Date: Wed, 24 Apr 2024 13:19:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-27 00:27:30.838142
- Title: Overload: Latency Attacks on Object Detection for Edge Devices
- Title(参考訳): オーバーロード:エッジデバイスのオブジェクト検出における遅延攻撃
- Authors: Erh-Chung Chen, Pin-Yu Chen, I-Hsin Chung, Che-rung Lee,
- Abstract要約: 本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことである。
このような攻撃がどのように動作するかを示すために、オブジェクト検出を使用します。
- 参考スコア(独自算出の注目度): 47.9744734181236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, the deployment of deep learning-based applications is an essential task owing to the increasing demands on intelligent services. In this paper, we investigate latency attacks on deep learning applications. Unlike common adversarial attacks for misclassification, the goal of latency attacks is to increase the inference time, which may stop applications from responding to the requests within a reasonable time. This kind of attack is ubiquitous for various applications, and we use object detection to demonstrate how such kind of attacks work. We also design a framework named Overload to generate latency attacks at scale. Our method is based on a newly formulated optimization problem and a novel technique, called spatial attention. This attack serves to escalate the required computing costs during the inference time, consequently leading to an extended inference time for object detection. It presents a significant threat, especially to systems with limited computing resources. We conducted experiments using YOLOv5 models on Nvidia NX. Compared to existing methods, our method is simpler and more effective. The experimental results show that with latency attacks, the inference time of a single image can be increased ten times longer in reference to the normal setting. Moreover, our findings pose a potential new threat to all object detection tasks requiring non-maximum suppression (NMS), as our attack is NMS-agnostic.
- Abstract(参考訳): 今日では、インテリジェントなサービスに対する需要が高まっているため、ディープラーニングベースのアプリケーションのデプロイが不可欠である。
本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことであり、アプリケーションが適切な時間内に要求に応答するのを阻止する可能性がある。
このような攻撃は様々なアプリケーションに広く適用されており、この種の攻撃がどのように動作するかを示すためにオブジェクト検出を使用します。
また、大規模な遅延アタックを生成するOverloadというフレームワークも設計しています。
提案手法は,新たに定式化された最適化問題と空間アテンションと呼ばれる新しい手法に基づく。
この攻撃は、推論時間の間に必要となる計算コストを増大させ、結果としてオブジェクト検出のための推論時間が延長される。
これは特に限られた計算資源を持つシステムに重大な脅威をもたらす。
Nvidia NX上でYOLOv5モデルを用いた実験を行った。
既存の手法と比較して,本手法はよりシンプルで効果的である。
実験の結果, 遅延攻撃では, 単一画像の推測時間は, 通常の設定の10倍長くなることがわかった。
さらに,NMSに依存せず,非最大抑制(NMS)を必要とする全ての物体検出タスクに対して新たな脅威となる可能性が示唆された。
関連論文リスト
- BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - A Human-in-the-Middle Attack against Object Detection Systems [4.764637544913963]
本稿では,暗号におけるman-in-the-Middle攻撃に触発された新たなハードウェア攻撃を提案する。
この攻撃はUAP(Universal Adversarial Perturbations)を生成し、USBカメラと検出システムとの間の摂動を注入する。
これらの知見は、自律運転のような安全クリティカルなシステムにおけるディープラーニングモデルの適用に対する深刻な懸念を提起する。
論文 参考訳(メタデータ) (2022-08-15T13:21:41Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - ROOM: Adversarial Machine Learning Attacks Under Real-Time Constraints [3.042299765078767]
オフラインコンポーネントがオンラインアルゴリズムのウォームアップにどのように役立つのかを示す。
本稿では,このようなリアルタイム対向攻撃を支援するために,リアルタイム制約下で対向雑音をどうやって生成するかという問題を紹介する。
論文 参考訳(メタデータ) (2022-01-05T14:03:26Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。