論文の概要: Underload: Defending against Latency Attacks for Object Detectors on Edge Devices
- arxiv url: http://arxiv.org/abs/2412.02171v1
- Date: Tue, 03 Dec 2024 05:00:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:47:16.099263
- Title: Underload: Defending against Latency Attacks for Object Detectors on Edge Devices
- Title(参考訳): 過負荷:エッジデバイス上のオブジェクト検出器の遅延攻撃に対する防御
- Authors: Tianyi Wang, Zichen Wang, Cong Wang, Yuanchao Shu, Ruilong Deng, Peng Cheng, Jiming Chen,
- Abstract要約: 最近、オブジェクト検出器のリアルタイム処理機能をターゲットに、新しいタイプの遅延攻撃が報告されている。
我々は,この攻撃に対して,暗黙の敵の訓練を通じて防御する試みを行っている。
実験は、リアルタイム処理能力を13ドルFPSから43ドルFPSに復元する防御効果を示す。
- 参考スコア(独自算出の注目度): 21.359326502877487
- License:
- Abstract: Object detection is a fundamental enabler for many real-time downstream applications such as autonomous driving, augmented reality and supply chain management. However, the algorithmic backbone of neural networks is brittle to imperceptible perturbations in the system inputs, which were generally known as misclassifying attacks. By targeting the real-time processing capability, a new class of latency attacks are reported recently. They exploit new attack surfaces in object detectors by creating a computational bottleneck in the post-processing module, that leads to cascading failure and puts the real-time downstream tasks at risks. In this work, we take an initial attempt to defend against this attack via background-attentive adversarial training that is also cognizant of the underlying hardware capabilities. We first draw system-level connections between latency attack and hardware capacity across heterogeneous GPU devices. Based on the particular adversarial behaviors, we utilize objectness loss as a proxy and build background attention into the adversarial training pipeline, and achieve a reasonable balance between clean and robust accuracy. The extensive experiments demonstrate the defense effectiveness of restoring real-time processing capability from $13$ FPS to $43$ FPS on Jetson Orin NX, with a better trade-off between the clean and robust accuracy.
- Abstract(参考訳): オブジェクト検出は、自律運転、拡張現実、サプライチェーン管理など、多くのリアルタイム下流アプリケーションにとって、基本的な実現方法である。
しかし、ニューラルネットワークのアルゴリズム的バックボーンは、一般に誤分類攻撃として知られていたシステム入力における知覚不能な摂動に対して脆弱である。
リアルタイム処理機能をターゲットにして、新しいタイプのレイテンシアタックが最近報告されている。
彼らは、後処理モジュールの計算ボトルネックを発生させることで、オブジェクト検出器の新たな攻撃面を利用し、カスケード障害を引き起こし、リアルタイムの下流タスクを危険に晒す。
本研究は,この攻撃に対して,基盤となるハードウェア能力を認識した,背景注意型対人訓練を通じて防御する試みである。
まず、不均一なGPUデバイス間でのレイテンシアタックとハードウェアキャパシティの間のシステムレベルの接続を描画する。
特定の対向行動に基づいて、客観性損失をプロキシとして利用し、敵のトレーニングパイプラインに背景注意を組み、クリーンかつロバストな精度で合理的なバランスをとる。
大規模な実験では、Jetson Orin NX上の13ドルFPSから43ドルFPSまでのリアルタイム処理能力の回復効果が実証され、クリーンさとロバストさのトレードオフが向上した。
関連論文リスト
- The Inherent Adversarial Robustness of Analog In-Memory Computing [2.435021773579434]
Deep Neural Network(DNN)アルゴリズムの重要な課題は、敵の攻撃に対する脆弱性である。
本稿では,位相変化メモリ(PCM)デバイスを用いたAIMCチップ上での予測を実験的に検証する。
ハードウェア・イン・ザ・ループ攻撃を行う際には、さらなる堅牢性も観察される。
論文 参考訳(メタデータ) (2024-11-11T14:29:59Z) - Real-Time Zero-Day Intrusion Detection System for Automotive Controller
Area Network on FPGAs [13.581341206178525]
本稿では,ゼロデイアタックを検出するための教師なし学習に基づく畳み込みオートエンコーダアーキテクチャを提案する。
資源制約のZynq Ultrascaleプラットフォームを対象としたAMD/XilinxのVitis-AIツールを用いてモデルを定量化する。
提案モデルでは, 未知のDoS, ファジング, スプーフィング攻撃に対して, 同一以上の分類精度 (>99.5%) を達成することができた。
論文 参考訳(メタデータ) (2024-01-19T14:36:01Z) - Overload: Latency Attacks on Object Detection for Edge Devices [47.9744734181236]
本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことである。
このような攻撃がどのように動作するかを示すために、オブジェクト検出を使用します。
論文 参考訳(メタデータ) (2023-04-11T17:24:31Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - Hardware Accelerator for Adversarial Attacks on Deep Learning Neural
Networks [7.20382137043754]
強靭な物理的摂動を生成するために, 対向攻撃ネットワークアルゴリズムのクラスが提案されている。
本稿では,メムリスタクロスバーアレーをベースとした敵攻撃用ハードウェアアクセラレータを提案する。
論文 参考訳(メタデータ) (2020-08-03T21:55:41Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z) - Pelican: A Deep Residual Network for Network Intrusion Detection [7.562843347215287]
我々は、特別に設計された残留ブロックの上に構築されたディープニューラルネットワークであるペリカンを提案する。
ペリカンは、非常に低い誤報率を維持しながら、高い攻撃検出性能を達成することができる。
論文 参考訳(メタデータ) (2020-01-19T05:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。