論文の概要: Sardino: Ultra-Fast Dynamic Ensemble for Secure Visual Sensing at Mobile
Edge
- arxiv url: http://arxiv.org/abs/2204.08189v1
- Date: Mon, 18 Apr 2022 06:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 16:03:28.132184
- Title: Sardino: Ultra-Fast Dynamic Ensemble for Secure Visual Sensing at Mobile
Edge
- Title(参考訳): Sardino:モバイルエッジでのセキュアなビジュアルセンシングのための超高速ダイナミックアンサンブル
- Authors: Qun Song, Zhenyu Yan, Wenjie Luo, and Rui Tan
- Abstract要約: 敵対的な攻撃例は、視覚センサーにディープニューラルネットワークを採用する車両やドローンなどの移動エッジシステムを危険にさらしている。
本稿では,適応的敵に対するセキュリティを開発するために,実行時に推論アンサンブルを更新する,アクティブでダイナミックな防御手法である Em Sardino を提案する。
- 参考スコア(独自算出の注目度): 7.85758401939372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial example attack endangers the mobile edge systems such as vehicles
and drones that adopt deep neural networks for visual sensing. This paper
presents {\em Sardino}, an active and dynamic defense approach that renews the
inference ensemble at run time to develop security against the adaptive
adversary who tries to exfiltrate the ensemble and construct the corresponding
effective adversarial examples. By applying consistency check and data fusion
on the ensemble's predictions, Sardino can detect and thwart adversarial
inputs. Compared with the training-based ensemble renewal, we use HyperNet to
achieve {\em one million times} acceleration and per-frame ensemble renewal
that presents the highest level of difficulty to the prerequisite exfiltration
attacks. Moreover, the robustness of the renewed ensembles against adversarial
examples is enhanced with adversarial learning for the HyperNet. We design a
run-time planner that maximizes the ensemble size in favor of security while
maintaining the processing frame rate. Beyond adversarial examples, Sardino can
also address the issue of out-of-distribution inputs effectively. This paper
presents extensive evaluation of Sardino's performance in counteracting
adversarial examples and applies it to build a real-time car-borne traffic sign
recognition system. Live on-road tests show the built system's effectiveness in
maintaining frame rate and detecting out-of-distribution inputs due to the
false positives of a preceding YOLO-based traffic sign detector.
- Abstract(参考訳): 逆例攻撃は、視覚センシングにディープニューラルネットワークを採用する車両やドローンなどのモバイルエッジシステムを危険にさらす。
本稿では, アンサンブルを探索し, 有効な対局例を構築しようとする適応的敵に対するセキュリティを開発するために, 実行時に推論アンサンブルを更新する能動的防衛手法である {\em Sardino} を提案する。
アンサンブルの予測に一貫性チェックとデータ融合を適用することで、サルディーノは敵の入力を検出し、妨害することができる。
トレーニングベースのアンサンブル更新と比較すると、ハイパーネットを使用してアクセラレーションを100万回達成し、フレーム単位のアンサンブル更新を行い、必要条件のエクスプロイト攻撃に最も困難である。
さらに,ハイパーネットの対角学習により,新たなアンサンブルの対逆例に対する堅牢性が向上する。
我々は,処理フレーム率を維持しつつ,セキュリティを優先してアンサンブルサイズを最大化するランタイムプランナを設計する。
逆の例以外にも、sardinoは配布外入力の問題を効果的に解決することができる。
本稿では,車載信号認識システムの構築において,Sardinoの対向的な実例に対する性能評価を広範囲に行う。
live on-roadテストでは、前のyoloベースのトラヒックサイン検出器の誤検出によるフレームレートの維持と分布外入力の検出において、組込みシステムの有効性が示されている。
関連論文リスト
- EdgeShield: A Universal and Efficient Edge Computing Framework for Robust AI [8.688432179052441]
敵攻撃の普遍的かつ効率的な検出を可能にするエッジフレームワークの設計を提案する。
このフレームワークは、注意に基づく敵検出手法と、軽量な検出ネットワークの形成を含む。
その結果、97.43%のFスコアが達成できることが示され、このフレームワークが敵の攻撃を検出する能力を示している。
論文 参考訳(メタデータ) (2024-08-08T02:57:55Z) - Enhancing Tracking Robustness with Auxiliary Adversarial Defense Networks [1.7907721703063868]
視覚的物体追跡におけるアドリアック攻撃は、高度なトラッカーの性能を著しく低下させた。
本稿では,入力画像に対して,トラッカーに入力する前に防御変換を行う,効果的な補助前処理防衛ネットワークであるAADNを提案する。
論文 参考訳(メタデータ) (2024-02-28T01:42:31Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - DNNShield: Dynamic Randomized Model Sparsification, A Defense Against
Adversarial Machine Learning [2.485182034310304]
本稿では,ハードウェアによる機械学習攻撃に対する防御手法を提案する。
DNNSHIELDは、相手入力の信頼度に応じて応答の強さに適応する。
VGG16は86%,ResNet50は88%であった。
論文 参考訳(メタデータ) (2022-07-31T19:29:44Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Modelling Adversarial Noise for Adversarial Defense [96.56200586800219]
敵の防御は、通常、敵の音を除去したり、敵の頑強な目標モデルを訓練するために、敵の例を活用することに焦点を当てる。
逆データと自然データの関係は、逆データからクリーンデータを推測し、最終的な正しい予測を得るのに役立ちます。
本研究では, ラベル空間の遷移関係を学習するために, 逆方向の雑音をモデル化し, 逆方向の精度を向上させることを目的とした。
論文 参考訳(メタデータ) (2021-09-21T01:13:26Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。