論文の概要: Adversarial Robustness of Deep Sensor Fusion Models
- arxiv url: http://arxiv.org/abs/2006.13192v3
- Date: Mon, 11 Apr 2022 05:04:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 23:28:44.025982
- Title: Adversarial Robustness of Deep Sensor Fusion Models
- Title(参考訳): 深部センサフュージョンモデルの対向ロバスト性
- Authors: Shaojie Wang, Tong Wu, Ayan Chakrabarti, Yevgeniy Vorobeychik
- Abstract要約: 自律運転における2次元物体検出のためのディープカメラ・LiDAR融合アーキテクチャのロバスト性について実験的に検討した。
核融合モデルは通常、単一センサーのディープニューラルネットワークよりも正確で、単一ソース攻撃に対して堅牢である。
- 参考スコア(独自算出の注目度): 47.112497044279024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We experimentally study the robustness of deep camera-LiDAR fusion
architectures for 2D object detection in autonomous driving. First, we find
that the fusion model is usually both more accurate, and more robust against
single-source attacks than single-sensor deep neural networks. Furthermore, we
show that without adversarial training, early fusion is more robust than late
fusion, whereas the two perform similarly after adversarial training. However,
we note that single-channel adversarial training of deep fusion is often
detrimental even to robustness. Moreover, we observe cross-channel
externalities, where single-channel adversarial training reduces robustness to
attacks on the other channel. Additionally, we observe that the choice of
adversarial model in adversarial training is critical: using attacks restricted
to cars' bounding boxes is more effective in adversarial training and exhibits
less significant cross-channel externalities. Finally, we find that
joint-channel adversarial training helps mitigate many of the issues above, but
does not significantly boost adversarial robustness.
- Abstract(参考訳): 自律運転における2次元物体検出のためのディープカメラ・LiDAR融合アーキテクチャの堅牢性について実験的に検討した。
第一に、融合モデルは、通常、単一センサーのディープニューラルネットワークよりも正確で、単一ソース攻撃に対してより堅牢である。
さらに, 逆行訓練がなければ, 早期核融合は後期核融合よりも堅牢であり, 逆行訓練後にも同様に機能することを示した。
しかし, 深部核融合の単一チャネル逆行訓練は頑健性にも有害であることが多い。
さらに,単一チャネルの対向訓練によって他のチャネルへの攻撃に対するロバスト性が低下するクロスチャネル外部性も観察する。
さらに, 対向訓練における対向モデルの選択が重要であり, 対向訓練において, 車両のバウンディングボックスに制限された攻撃はより効果的であり, 有意な横断的外部性を示す。
最後に, 共同チャネル逆行訓練は上記の問題の多くを軽減するのに有効であるが, 対向性は著しく向上しない。
関連論文リスト
- Test-time Adversarial Defense with Opposite Adversarial Path and High Attack Time Cost [5.197034517903854]
対向対向経路(OAP)に沿った拡散に基づく新しい対向防御法について検討する。
我々は、敵攻撃に抵抗するために、事前訓練されたモデルに差し込むことができる浄化器を提案する。
論文 参考訳(メタデータ) (2024-10-22T08:32:17Z) - Improved Adversarial Training Through Adaptive Instance-wise Loss
Smoothing [5.1024659285813785]
敵の訓練は、このような敵の攻撃に対する最も成功した防御であった。
本稿では,新たな対人訓練手法を提案する。
本手法は,$ell_infty$-norm制約攻撃に対する最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2023-03-24T15:41:40Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Drawing Robust Scratch Tickets: Subnetworks with Inborn Robustness Are
Found within Randomly Initialized Networks [13.863895853997091]
一般的な宝くじ券の仮説とは別として、元の密集ネットワークや特定されたRTTをトレーニングする必要はない。
同一の高密度ネットワークから引き出された疎度比の異なるRTT間の逆転送性について検討した。
本稿では,Random RST Switch (R2S) 技術を提案する。
論文 参考訳(メタデータ) (2021-10-26T22:52:56Z) - Security Analysis of Camera-LiDAR Semantic-Level Fusion Against
Black-Box Attacks on Autonomous Vehicles [6.477833151094911]
近年、深いニューラルネットワーク上に構築されたLiDARベースの知覚は、スプーフィング攻撃に弱いことが示されている。
我々は、スプーフィング攻撃下でのカメラ-LiDAR融合の最初の解析と、任意のAVコンテキストにおけるセマンティックフュージョンの最初のセキュリティ解析を行う。
セマンティックカメラとLiDARの融合は、標的モデルに対して70%から90%の成功率でフラストタル攻撃に対する広範な脆弱性を示す。
論文 参考訳(メタデータ) (2021-06-13T21:59:19Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z) - Consistency Regularization for Adversarial Robustness [88.65786118562005]
adversarial trainingは、ディープニューラルネットワークの敵対的堅牢性を得るために最も成功した方法の1つである。
しかし、ATから得られる堅牢性の大幅な一般化ギャップは問題視されている。
本稿では,この問題に対処するためにデータ拡張手法について検討する。
論文 参考訳(メタデータ) (2021-03-08T09:21:41Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Towards Robustness against Unsuspicious Adversarial Examples [33.63338857434094]
本稿では,認知的サリエンスを利用した不審感のモデル化手法を提案する。
我々は、分類器に対する非サービエンス保存二重摂動攻撃を計算した。
両摂動攻撃による対人訓練は、最先端の堅牢な学習手法よりも、これらに対して堅牢な分類器が得られることを示す。
論文 参考訳(メタデータ) (2020-05-08T20:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。