論文の概要: Fool the Hydra: Adversarial Attacks against Multi-view Object Detection
Systems
- arxiv url: http://arxiv.org/abs/2312.00173v1
- Date: Thu, 30 Nov 2023 20:11:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 16:39:53.048556
- Title: Fool the Hydra: Adversarial Attacks against Multi-view Object Detection
Systems
- Title(参考訳): fool the hydra: 多視点物体検出システムに対する敵対的攻撃
- Authors: Bilel Tarchoun, Quazi Mishkatul Alam, Nael Abu-Ghazaleh, Ihsen Alouani
- Abstract要約: Adrial patchは、現実のシナリオにおける機械学習(ML)モデルに対する敵対的な攻撃によって引き起こされる脅威の、明白な顕在化を実証するものだ。
マルチビューオブジェクトシステムは、複数のビューからのデータを組み合わせて、困難な環境でも信頼性の高い検出結果を得ることができる。
現実の視覚アプリケーションにおいて重要であるにもかかわらず、マルチビューシステムの敵パッチに対する脆弱性は十分に調査されていない。
- 参考スコア(独自算出の注目度): 3.4673556247932225
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Adversarial patches exemplify the tangible manifestation of the threat posed
by adversarial attacks on Machine Learning (ML) models in real-world scenarios.
Robustness against these attacks is of the utmost importance when designing
computer vision applications, especially for safety-critical domains such as
CCTV systems. In most practical situations, monitoring open spaces requires
multi-view systems to overcome acquisition challenges such as occlusion
handling. Multiview object systems are able to combine data from multiple
views, and reach reliable detection results even in difficult environments.
Despite its importance in real-world vision applications, the vulnerability of
multiview systems to adversarial patches is not sufficiently investigated. In
this paper, we raise the following question: Does the increased performance and
information sharing across views offer as a by-product robustness to
adversarial patches? We first conduct a preliminary analysis showing promising
robustness against off-the-shelf adversarial patches, even in an extreme
setting where we consider patches applied to all views by all persons in
Wildtrack benchmark. However, we challenged this observation by proposing two
new attacks: (i) In the first attack, targeting a multiview CNN, we maximize
the global loss by proposing gradient projection to the different views and
aggregating the obtained local gradients. (ii) In the second attack, we focus
on a Transformer-based multiview framework. In addition to the focal loss, we
also maximize the transformer-specific loss by dissipating its attention
blocks. Our results show a large degradation in the detection performance of
victim multiview systems with our first patch attack reaching an attack success
rate of 73% , while our second proposed attack reduced the performance of its
target detector by 62%
- Abstract(参考訳): 敵パッチは、現実のシナリオにおける機械学習(ML)モデルに対する敵攻撃によって引き起こされる脅威の具体的な顕在化を実証する。
これらの攻撃に対するロバスト性は、コンピュータビジョンアプリケーション、特にCCTVシステムのような安全クリティカルな領域の設計において最も重要である。
多くの場合、オープンスペースの監視には、オクルージョン処理などの取得課題を克服するために、マルチビューシステムが必要である。
マルチビューオブジェクトシステムは、複数のビューからのデータを組み合わせて、難しい環境でも信頼できる検出結果を得ることができる。
実世界のビジョンアプリケーションでの重要性にもかかわらず、マルチビューシステムの敵のパッチに対する脆弱性は十分に調査されていない。
本稿では, 敵パッチに対する副次的ロバスト性として, ビュー間での性能向上と情報共有が期待できるのか?
我々はまず,wildtrackベンチマークにおいて,全ユーザによる全ビューに対するパッチ適用を検討する極端な状況においても,既定の敵パッチに対する堅牢性を示す予備分析を行う。
しかし、我々は2つの新たな攻撃を提案してこの観察に挑戦した。
i) マルチビューCNNをターゲットにした第1次攻撃では, 異なる視点に勾配投影を提案し, 得られた局所勾配を集約することにより, グローバルな損失を最大化する。
(ii)第2の攻撃では,トランスフォーマーベースのマルチビューフレームワークに注目する。
焦点損失に加えて,注意ブロックを消散することで変圧器固有の損失を最大化する。
本研究は,攻撃成功率73%に到達した第1パッチ攻撃による被害者マルチビューシステムの検出性能の大幅な低下を示し,第2の攻撃提案では目標検出器の性能を62%削減した。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Visual Adversarial Examples Jailbreak Aligned Large Language Models [66.53468356460365]
視覚入力の連続的かつ高次元的な性質は、敵対的攻撃に対する弱いリンクであることを示す。
我々は、視力統合されたLLMの安全ガードレールを回避するために、視覚的敵の例を利用する。
本研究は,マルチモダリティの追求に伴う敵のエスカレーションリスクを浮き彫りにする。
論文 参考訳(メタデータ) (2023-06-22T22:13:03Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - ExploreADV: Towards exploratory attack for Neural Networks [0.33302293148249124]
ExploreADVは、地域的および非受容的な攻撃をモデル化できる汎用的で柔軟な敵攻撃システムである。
提案システムは,入力のサブリージョンに着目し,知覚不能な摂動を探索し,攻撃に対する画素/領域の脆弱性を理解するための柔軟性をユーザに提供する。
論文 参考訳(メタデータ) (2023-01-01T07:17:03Z) - Physical Passive Patch Adversarial Attacks on Visual Odometry Systems [6.391337032993737]
本研究では,視覚計測に基づく自律ナビゲーションシステムに対するパッチ対向攻撃について検討する。
本研究では,現場にパッチ対向攻撃を配置することにより,視覚計測モデルの誤差マージンを著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-07-11T14:41:06Z) - Adversarial Attacks in a Multi-view Setting: An Empirical Study of the
Adversarial Patches Inter-view Transferability [3.1542695050861544]
敵攻撃は、検知器を騙す可能性のある入力への加算ノイズからなる。
最近の実世界の印刷可能な敵パッチは、最先端のニューラルネットワークに対して効果的であることが証明された。
視角が対向パッチの有効性に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2021-10-10T19:59:28Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。