論文の概要: Adversarial Vulnerability of Temporal Feature Networks for Object
Detection
- arxiv url: http://arxiv.org/abs/2208.10773v1
- Date: Tue, 23 Aug 2022 07:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:54:42.280659
- Title: Adversarial Vulnerability of Temporal Feature Networks for Object
Detection
- Title(参考訳): 物体検出のための時間的特徴ネットワークの敵対的脆弱性
- Authors: Svetlana Pavlitskaya, Nikolai Polley, Michael Weber, J.Marius
Z\"ollner
- Abstract要約: 本研究では,物体検出のための時間的特徴ネットワークが,普遍的敵攻撃に対して脆弱であるかどうかを検討する。
画像全体に対する知覚不能ノイズと,局所的な対向パッチの2種類の攻撃について検討した。
KITTIおよびnuScenesデータセットに関する実験により、K-PGDによるロバスト化モデルが、研究された攻撃に耐えられることを示した。
- 参考スコア(独自算出の注目度): 5.525433572437716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Taking into account information across the temporal domain helps to improve
environment perception in autonomous driving. However, it has not been studied
so far whether temporally fused neural networks are vulnerable to deliberately
generated perturbations, i.e. adversarial attacks, or whether temporal history
is an inherent defense against them. In this work, we study whether temporal
feature networks for object detection are vulnerable to universal adversarial
attacks. We evaluate attacks of two types: imperceptible noise for the whole
image and locally-bound adversarial patch. In both cases, perturbations are
generated in a white-box manner using PGD. Our experiments confirm, that
attacking even a portion of a temporal input suffices to fool the network. We
visually assess generated perturbations to gain insights into the functioning
of attacks. To enhance the robustness, we apply adversarial training using
5-PGD. Our experiments on KITTI and nuScenes datasets demonstrate, that a model
robustified via K-PGD is able to withstand the studied attacks while keeping
the mAP-based performance comparable to that of an unattacked model.
- Abstract(参考訳): 時間領域にわたる情報を考慮することは、自律運転における環境認識を改善するのに役立つ。
しかし、時間的融合ニューラルネットワークが故意に生成された摂動、すなわち敵の攻撃に対して脆弱であるか、あるいは時間的履歴がそれらに対して固有の防御であるのか、今のところは研究されていない。
本研究では,物体検出のための時間的特徴ネットワークが,普遍的敵攻撃に対して脆弱であるかどうかを検討する。
画像全体に対する知覚不能ノイズと,局所的な対向パッチの2種類の攻撃を評価する。
どちらの場合も、PGDを用いたホワイトボックス方式で摂動が生成される。
実験では、時間入力の一部でも攻撃することでネットワークを騙すことができることを確認した。
生成した摂動を視覚的に評価し,攻撃機能に関する洞察を得る。
強靭性を高めるため,5-PGDを用いた対向訓練を行った。
KITTIおよびnuScenesデータセットに関する実験により、K-PGDを介して堅牢化されたモデルが、攻撃を受けていないモデルと同等の性能を維持しながら、研究された攻撃に耐えられることを示した。
関連論文リスト
- Adversarial Attacks and Dimensionality in Text Classifiers [3.4179091429029382]
機械学習アルゴリズムに対する敵対的な攻撃は、多くの現実世界のユースケースにおいて、AIの採用を妨げている。
本研究では,自然言語処理分野,特にテキスト分類タスクにおける逆例について検討する。
論文 参考訳(メタデータ) (2024-04-03T11:49:43Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Consistent Valid Physically-Realizable Adversarial Attack against
Crowd-flow Prediction Models [4.286570387250455]
ディープラーニング(DL)モデルは、都市全体のクラウドフローパターンを効果的に学習することができる。
DLモデルは、目立たない逆境の摂動に対して不利に作用することが知られている。
論文 参考訳(メタデータ) (2023-03-05T13:30:25Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。