論文の概要: Butterfly Effect Attack: Tiny and Seemingly Unrelated Perturbations for
Object Detection
- arxiv url: http://arxiv.org/abs/2211.07483v1
- Date: Mon, 14 Nov 2022 16:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 17:22:53.116733
- Title: Butterfly Effect Attack: Tiny and Seemingly Unrelated Perturbations for
Object Detection
- Title(参考訳): バタフライ効果攻撃:物体検出のための小さく一見無関係な摂動
- Authors: Nguyen Anh Vu Doan, Arda Y\"uksel, Chih-Hong Cheng
- Abstract要約: この研究は、オブジェクト検出において、小さく、一見無関係なイメージの摂動を探索し、識別することを目的としている。
物体の「非関連性」の度合いを、発生した摂動と物体の間の画素距離によって特徴づける。
その結果、画像の右側の(見えない)摂動は、左側の物体検出の結果を大きく変えることができることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work aims to explore and identify tiny and seemingly unrelated
perturbations of images in object detection that will lead to performance
degradation. While tininess can naturally be defined using $L_p$ norms, we
characterize the degree of "unrelatedness" of an object by the pixel distance
between the occurred perturbation and the object. Triggering errors in
prediction while satisfying two objectives can be formulated as a
multi-objective optimization problem where we utilize genetic algorithms to
guide the search. The result successfully demonstrates that (invisible)
perturbations on the right part of the image can drastically change the outcome
of object detection on the left. An extensive evaluation reaffirms our
conjecture that transformer-based object detection networks are more
susceptible to butterfly effects in comparison to single-stage object detection
networks such as YOLOv5.
- Abstract(参考訳): この研究は、オブジェクト検出における小さく、一見無関係なイメージの摂動を探索し、識別することを目的としている。
L_p$ノルムは自然に定義できるが、物体の「非関連性」の度合いを、発生した摂動と物体の間の画素距離によって特徴づける。
2つの目的を満足しながら予測における誤差をトリガーすることは、遺伝的アルゴリズムを用いて探索を誘導する多目的最適化問題として定式化することができる。
その結果、画像の右側の(見えない)摂動は、左側の物体検出の結果を大きく変えることができることを示した。
広範に評価した結果, YOLOv5のような単一段階の物体検出ネットワークと比較して, トランスフォーマーを用いた物体検出ネットワークの方がバタフライの影響を受けやすいという予想が再確認された。
関連論文リスト
- Counterfactual Reasoning for Multi-Label Image Classification via Patching-Based Training [84.95281245784348]
共起関係の過度な強調は、モデルの過度な問題を引き起こす可能性がある。
本稿では,対象対象物とその共起対象物による相関特性を媒介者とみなすことができることを示す因果推論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:13:24Z) - Spatial Coherence Loss: All Objects Matter in Salient and Camouflaged Object Detection [3.03995893427722]
正確な意味分析を行うには、学習のどの段階でも現れる全てのオブジェクトレベルの予測を学習する必要がある。
本稿では,隣接画素間の相互応答を広範に使用する単一応答損失関数に組み込んだ新しい損失関数である空間コヒーレンス損失(SCLoss)を提案する。
論文 参考訳(メタデータ) (2024-02-28T20:27:49Z) - Differential Evolution based Dual Adversarial Camouflage: Fooling Human
Eyes and Object Detectors [0.190365714903665]
本研究では,2段階からなる二重対向カモフラージュ法(DE_DAC)を提案する。
第1段階では、レンダリング対象とシーン画像との差を最小限に抑えるために、グローバルテクスチャを最適化する。
第2段階では、局所的なテクスチャを最適化する3つの損失関数を設計し、物体検出を非効率にする。
論文 参考訳(メタデータ) (2022-10-17T09:07:52Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Decoupled Adaptation for Cross-Domain Object Detection [69.5852335091519]
クロスドメインオブジェクト検出は、オブジェクト分類よりも難しい。
D-adaptは4つのクロスドメインオブジェクト検出タスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-10-06T08:43:59Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Adaptive Object Detection with Dual Multi-Label Prediction [78.69064917947624]
本稿では,適応オブジェクト検出のための新しいエンド・ツー・エンドの非教師付き深部ドメイン適応モデルを提案する。
モデルはマルチラベル予測を利用して、各画像内の対象カテゴリ情報を明らかにする。
本稿では,オブジェクト検出を支援するための予測整合正則化機構を提案する。
論文 参考訳(メタデータ) (2020-03-29T04:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。