論文の概要: Learning Transferable 3D Adversarial Cloaks for Deep Trained Detectors
- arxiv url: http://arxiv.org/abs/2104.11101v1
- Date: Thu, 22 Apr 2021 14:36:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 14:06:46.847689
- Title: Learning Transferable 3D Adversarial Cloaks for Deep Trained Detectors
- Title(参考訳): 深層学習型検出器のための学習伝達可能な3次元逆クローク
- Authors: Arman Maesumi and Mingkang Zhu and Yi Wang and Tianlong Chen and
Zhangyang Wang and Chandrajit Bajaj
- Abstract要約: 本稿では,人間の3dメッシュ上の攻撃パッチを訓練するパッチベースの攻撃パイプラインを提案する。
既存のadversarial patchとは異なり、我々の新しい3dadversarial patchは、さまざまなビューの下で堅牢に最先端の深層物体検出器を騙すことができる。
- 参考スコア(独自算出の注目度): 72.7633556669675
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a novel patch-based adversarial attack pipeline that
trains adversarial patches on 3D human meshes. We sample triangular faces on a
reference human mesh, and create an adversarial texture atlas over those faces.
The adversarial texture is transferred to human meshes in various poses, which
are rendered onto a collection of real-world background images. Contrary to the
traditional patch-based adversarial attacks, where prior work attempts to fool
trained object detectors using appended adversarial patches, this new form of
attack is mapped into the 3D object world and back-propagated to the texture
atlas through differentiable rendering. As such, the adversarial patch is
trained under deformation consistent with real-world materials. In addition,
and unlike existing adversarial patches, our new 3D adversarial patch is shown
to fool state-of-the-art deep object detectors robustly under varying views,
potentially leading to an attacking scheme that is persistently strong in the
physical world.
- Abstract(参考訳): 本稿では,人間の3dメッシュ上の攻撃パッチを訓練するパッチベースの攻撃パイプラインを提案する。
私たちは、参照する人間のメッシュで三角形の顔をサンプリングし、それらの顔に逆向きのテクスチャアトラスを作成します。
敵のテクスチャは、さまざまなポーズで人間のメッシュに転送され、現実世界の背景イメージのコレクションにレンダリングされます。
従来のパッチベースの敵攻撃とは対照的に、この新たな攻撃は3Dオブジェクトの世界にマッピングされ、異なるレンダリングによってテクスチャアトラスにバックプロパゲーションされる。
このように、対向パッチは実世界の材料と整合した変形の下で訓練される。
さらに、既存の敵パッチと異なり、我々の新しい3D対向パッチは、さまざまなビューの下で、最先端のディープオブジェクト検出器をしっかりと騙すことで、物理的な世界で永続的に強い攻撃スキームにつながる可能性がある。
関連論文リスト
- Generating Visually Realistic Adversarial Patch [5.41648734119775]
高品質の敵パッチは現実的で、位置が無関係で、物理的な世界に展開できる印刷可能でなければならない。
我々は、視覚的に現実的な敵パッチを生成するために、VRAPと呼ばれる効果的な攻撃を提案する。
VRAPは、実際の画像の近傍のパッチを制約して、視覚的現実を確実にし、位置無関係で最も低い位置のパッチを最適化し、トータルバリアンス損失とガンマ変換を採用して、生成したパッチを情報を失うことなく印刷可能にする。
論文 参考訳(メタデータ) (2023-12-05T11:07:39Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - DTA: Physical Camouflage Attacks using Differentiable Transformation
Network [0.4215938932388722]
本研究では,物体検出モデルに対して,対象物体上の頑健な物理的対角パターンを生成するためのフレームワークを提案する。
我々の攻撃フレームワークを利用することで、敵はレガシーなフォトリアリスティックの利点と、ホワイトボックスアクセスの利点の両方を得ることができる。
実験の結果,我々のキャモフラージュした3D車両は,最先端の物体検出モデルを回避することができた。
論文 参考訳(メタデータ) (2022-03-18T10:15:02Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - FCA: Learning a 3D Full-coverage Vehicle Camouflage for Multi-view
Physical Adversarial Attack [5.476797414272598]
そこで本研究では,FCA(Full-coverage Camouflage Attack)を提案する。
具体的には、まず、平面でないカモフラージュテクスチャを全車表面上でレンダリングする。
次に、レンダリングされたカモフラージュされた車両をフォトリアリスティックなシナリオに変換する変換関数を導入する。
論文 参考訳(メタデータ) (2021-09-15T10:17:12Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - Can 3D Adversarial Logos Cloak Humans? [115.20718041659357]
本稿では,新しい3次元逆行性ロゴアタックを提案する。
任意の形状のロゴを2次元テクスチャ画像から作成し、この画像を3次元逆ロゴにマッピングする。
結果として得られる3Dの敵のロゴは、その形状や位置を容易に操作できる敵のテクスチャとして見なされる。
既存の敵対的パッチと異なり、我々の新しい3D逆行ロゴは、モデル回転下で頑丈に最先端のディープオブジェクト検出器を騙すことが示されている。
論文 参考訳(メタデータ) (2020-06-25T18:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。