論文の概要: FCA: Learning a 3D Full-coverage Vehicle Camouflage for Multi-view
Physical Adversarial Attack
- arxiv url: http://arxiv.org/abs/2109.07193v1
- Date: Wed, 15 Sep 2021 10:17:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 15:18:23.971535
- Title: FCA: Learning a 3D Full-coverage Vehicle Camouflage for Multi-view
Physical Adversarial Attack
- Title(参考訳): FCA:多視点物理対向攻撃のための3次元フルカバー車両カモフラージュ学習
- Authors: DonghuaWang, Tingsong Jiang, Jialiang Sun, Weien Zhou, Xiaoya Zhang,
Zhiqiang Gong, Wen Yao and Xiaoqian Chen
- Abstract要約: そこで本研究では,FCA(Full-coverage Camouflage Attack)を提案する。
具体的には、まず、平面でないカモフラージュテクスチャを全車表面上でレンダリングする。
次に、レンダリングされたカモフラージュされた車両をフォトリアリスティックなシナリオに変換する変換関数を導入する。
- 参考スコア(独自算出の注目度): 5.476797414272598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical adversarial attacks in object detection have attracted increasing
attention. However, most previous works focus on hiding the objects from the
detector by generating an individual adversarial patch, which only covers the
planar part of the vehicle's surface and fails to attack the detector in
physical scenarios for multi-view, long-distance and partially occluded
objects. To bridge the gap between digital attacks and physical attacks, we
exploit the full 3D vehicle surface to propose a robust Full-coverage
Camouflage Attack (FCA) to fool detectors. Specifically, we first try rendering
the non-planar camouflage texture over the full vehicle surface. To mimic the
real-world environment conditions, we then introduce a transformation function
to transfer the rendered camouflaged vehicle into a photo-realistic scenario.
Finally, we design an efficient loss function to optimize the camouflage
texture. Experiments show that the full-coverage camouflage attack can not only
outperform state-of-the-art methods under various test cases but also
generalize to different environments, vehicles, and object detectors.
- Abstract(参考訳): 物体検出における物理的敵対攻撃が注目されている。
しかし、以前の作品のほとんどは、車両の表面の平面部分のみを覆う個々の敵パッチを生成して検出器から物体を隠すことに焦点を当てており、多視点、長距離、部分的に遮蔽された物体の物理的シナリオでは検出器を攻撃できない。
デジタルアタックと物理的アタックのギャップを埋めるために、フル3D車両表面を利用して、検知器を騙す堅牢なフルカバーカモフラージュアタック(FCA)を提案する。
具体的には、まず全車両表面上の非平面カモフラージュテクスチャをレンダリングする。
実世界の環境条件を模倣するために、レンダリングされた迷彩車両をフォトリアリスティックなシナリオに転送する変換関数を導入する。
最後に,迷彩テクスチャを最適化する効率的な損失関数を設計する。
実験により、完全なカモフラージュ攻撃は、様々なテストケースにおいて最先端の手法よりも優れるだけでなく、異なる環境、車両、物体検出器に一般化できることが示されている。
関連論文リスト
- Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - ACTIVE: Towards Highly Transferable 3D Physical Camouflage for Universal
and Robust Vehicle Evasion [3.5049174854580842]
本稿では,トランスファーブルおよび集中型車両侵入(ACTIVE:Adrial Camouflage for Transferable and Intensive Vehicle Evasion)について紹介する。
ACTIVEは、あらゆる3D車両を検出器から隠蔽できる、普遍的で堅牢な対向カモフラージュを生成する。
15種類の異なるモデルに対する実験は、様々な公共検出器における既存の研究を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-08-14T08:52:41Z) - CamoFormer: Masked Separable Attention for Camouflaged Object Detection [94.2870722866853]
カモフラージュされた物体検出のための単純なマスク付き分離型注意(MSA)を提案する。
まず,マルチヘッド・セルフアテンションを3つの部分に分割し,異なるマスキング戦略を用いて,背景からカモフラージュした物体を識別する役割を担っている。
提案手法では,MSAを用いた単純なトップダウンデコーダを用いて,高精度なセグメンテーション結果を得るために,高分解能なセグメンテーション表現を段階的にキャプチャする。
論文 参考訳(メタデータ) (2022-12-10T10:03:27Z) - DTA: Physical Camouflage Attacks using Differentiable Transformation
Network [0.4215938932388722]
本研究では,物体検出モデルに対して,対象物体上の頑健な物理的対角パターンを生成するためのフレームワークを提案する。
我々の攻撃フレームワークを利用することで、敵はレガシーなフォトリアリスティックの利点と、ホワイトボックスアクセスの利点の両方を得ることができる。
実験の結果,我々のキャモフラージュした3D車両は,最先端の物体検出モデルを回避することができた。
論文 参考訳(メタデータ) (2022-03-18T10:15:02Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Learning Transferable 3D Adversarial Cloaks for Deep Trained Detectors [72.7633556669675]
本稿では,人間の3dメッシュ上の攻撃パッチを訓練するパッチベースの攻撃パイプラインを提案する。
既存のadversarial patchとは異なり、我々の新しい3dadversarial patchは、さまざまなビューの下で堅牢に最先端の深層物体検出器を騙すことができる。
論文 参考訳(メタデータ) (2021-04-22T14:36:08Z) - Dynamic Adversarial Patch for Evading Object Detection Models [47.32228513808444]
本研究では,実環境に適用したオブジェクト検出器に対する革新的な攻撃手法を提案する。
本手法では,対象物体上の複数の所定位置に配置される動的対向パッチを用いる。
対象オブジェクトと分類のセマンティック距離を考慮したパッチを生成することで攻撃を改善した。
論文 参考訳(メタデータ) (2020-10-25T08:55:40Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。