論文の概要: Differential Evolution based Dual Adversarial Camouflage: Fooling Human
Eyes and Object Detectors
- arxiv url: http://arxiv.org/abs/2210.08870v1
- Date: Mon, 17 Oct 2022 09:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 16:29:29.134597
- Title: Differential Evolution based Dual Adversarial Camouflage: Fooling Human
Eyes and Object Detectors
- Title(参考訳): 差分進化に基づく二重対向カモフラージュ:ヒト眼と物体検出器の摂食
- Authors: Jialiang Sun
- Abstract要約: 本研究では,2段階からなる二重対向カモフラージュ法(DE_DAC)を提案する。
第1段階では、レンダリング対象とシーン画像との差を最小限に抑えるために、グローバルテクスチャを最適化する。
第2段階では、局所的なテクスチャを最適化する3つの損失関数を設計し、物体検出を非効率にする。
- 参考スコア(独自算出の注目度): 0.190365714903665
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent studies reveal that deep neural network (DNN) based object detectors
are vulnerable to adversarial attacks in the form of adding the perturbation to
the images, leading to the wrong output of object detectors. Most current
existing works focus on generating perturbed images, also called adversarial
examples, to fool object detectors. Though the generated adversarial examples
themselves can remain a certain naturalness, most of them can still be easily
observed by human eyes, which limits their further application in the real
world. To alleviate this problem, we propose a differential evolution based
dual adversarial camouflage (DE_DAC) method, composed of two stages to fool
human eyes and object detectors simultaneously. Specifically, we try to obtain
the camouflage texture, which can be rendered over the surface of the object.
In the first stage, we optimize the global texture to minimize the discrepancy
between the rendered object and the scene images, making human eyes difficult
to distinguish. In the second stage, we design three loss functions to optimize
the local texture, making object detectors ineffective. In addition, we
introduce the differential evolution algorithm to search for the near-optimal
areas of the object to attack, improving the adversarial performance under
certain attack area limitations. Besides, we also study the performance of
adaptive DE_DAC, which can be adapted to the environment. Experiments show that
our proposed method could obtain a good trade-off between the fooling human
eyes and object detectors under multiple specific scenes and objects.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワーク(DNN)ベースの物体検出器が、画像に摂動を加える形で敵の攻撃に弱いことが示されており、物体検出器の誤った出力につながっている。
現在の既存の作品のほとんどは、物体検出器を騙すために摂動画像を生成することに焦点を当てている。
生成した敵の例自体は一定の自然性を維持することができるが、そのほとんどは人間の目で容易に観察できるため、現実世界でのさらなる応用は制限される。
この問題を軽減するために,人間の目と物体検出器を同時に騙す2段階からなる差動進化に基づく二重対向カモフラージュ法(DE_DAC)を提案する。
具体的には、対象物の表面上でレンダリング可能なカモフラージュテクスチャの取得を試みる。
第1段階では,グローバルなテクスチャを最適化し,レンダリング対象とシーン画像との差を最小限に抑え,人間の目が識別しにくくする。
第2段階では,局所的なテクスチャを最適化するために3つの損失関数を設計した。
さらに,攻撃対象のほぼ最適領域を探索する微分進化アルゴリズムを導入し,特定の攻撃領域制限下での対向性能を向上させる。
また,環境に適応可能な適応型D_DACの性能についても検討した。
実験により, 提案手法は, 複数の特定のシーンや対象物の下で, 人間の目と物体検出装置との良好なトレードオフが得られることを示した。
関連論文リスト
- ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object
Detection [75.22007160699948]
本稿では,不明瞭な画像や映像を観察する際の人間の行動を模倣する,効果的な統合型ピラミッドネットワークを提案する。
具体的には、差別的な混合スケールのセマンティクスを学習するために、ズーム戦略を用いる。
我々のタスクフレンドリーなフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Butterfly Effect Attack: Tiny and Seemingly Unrelated Perturbations for
Object Detection [0.0]
この研究は、オブジェクト検出において、小さく、一見無関係なイメージの摂動を探索し、識別することを目的としている。
物体の「非関連性」の度合いを、発生した摂動と物体の間の画素距離によって特徴づける。
その結果、画像の右側の(見えない)摂動は、左側の物体検出の結果を大きく変えることができることを示した。
論文 参考訳(メタデータ) (2022-11-14T16:07:14Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - FCA: Learning a 3D Full-coverage Vehicle Camouflage for Multi-view
Physical Adversarial Attack [5.476797414272598]
そこで本研究では,FCA(Full-coverage Camouflage Attack)を提案する。
具体的には、まず、平面でないカモフラージュテクスチャを全車表面上でレンダリングする。
次に、レンダリングされたカモフラージュされた車両をフォトリアリスティックなシナリオに変換する変換関数を導入する。
論文 参考訳(メタデータ) (2021-09-15T10:17:12Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - CCA: Exploring the Possibility of Contextual Camouflage Attack on Object
Detection [16.384831731988204]
対象検出器の性能に影響を及ぼすためのコンテキストカモフラージュ攻撃(CCA)アルゴリズムを提案する。
本稿では,フォトリアリスティック・シミュレートされた環境における進化的探索戦略と対向機械学習の相互作用について述べる。
提案されたカモフラージュは、最先端の物体検出器の多くに有効であることが検証されている。
論文 参考訳(メタデータ) (2020-08-19T06:16:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。