論文の概要: DTA: Physical Camouflage Attacks using Differentiable Transformation
Network
- arxiv url: http://arxiv.org/abs/2203.09831v1
- Date: Fri, 18 Mar 2022 10:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 15:07:45.690968
- Title: DTA: Physical Camouflage Attacks using Differentiable Transformation
Network
- Title(参考訳): DTA:微分変換ネットワークを用いた物理的カモフラージュ攻撃
- Authors: Naufal Suryanto, Yongsu Kim, Hyoeun Kang, Harashta Tatimma Larasati,
Youngyeo Yun, Thi-Thu-Huong Le, Hunmin Yang, Se-Yoon Oh, Howon Kim
- Abstract要約: 本研究では,物体検出モデルに対して,対象物体上の頑健な物理的対角パターンを生成するためのフレームワークを提案する。
我々の攻撃フレームワークを利用することで、敵はレガシーなフォトリアリスティックの利点と、ホワイトボックスアクセスの利点の両方を得ることができる。
実験の結果,我々のキャモフラージュした3D車両は,最先端の物体検出モデルを回避することができた。
- 参考スコア(独自算出の注目度): 0.4215938932388722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To perform adversarial attacks in the physical world, many studies have
proposed adversarial camouflage, a method to hide a target object by applying
camouflage patterns on 3D object surfaces. For obtaining optimal physical
adversarial camouflage, previous studies have utilized the so-called neural
renderer, as it supports differentiability. However, existing neural renderers
cannot fully represent various real-world transformations due to a lack of
control of scene parameters compared to the legacy photo-realistic renderers.
In this paper, we propose the Differentiable Transformation Attack (DTA), a
framework for generating a robust physical adversarial pattern on a target
object to camouflage it against object detection models with a wide range of
transformations. It utilizes our novel Differentiable Transformation Network
(DTN), which learns the expected transformation of a rendered object when the
texture is changed while preserving the original properties of the target
object. Using our attack framework, an adversary can gain both the advantages
of the legacy photo-realistic renderers including various physical-world
transformations and the benefit of white-box access by offering
differentiability. Our experiments show that our camouflaged 3D vehicles can
successfully evade state-of-the-art object detection models in the
photo-realistic environment (i.e., CARLA on Unreal Engine). Furthermore, our
demonstration on a scaled Tesla Model 3 proves the applicability and
transferability of our method to the real world.
- Abstract(参考訳): 物理世界での敵対的攻撃を行うために、多くの研究が3d物体表面に迷彩パターンを適用して対象物を隠すための逆迷彩法を提案している。
最適な物理的敵対的カモフラージュを得るために、これまでの研究では、分化性をサポートするためにいわゆるニューラル・レンダラーを利用した。
しかし、既存のニューラルレンダラーは、レガシなフォトリアリスティックレンダラーに比べてシーンパラメータの制御が不足しているため、様々な現実世界の変換を完全に表現することはできない。
本稿では,対象対象物に対する頑健な物理対角パターンを生成するためのフレームワークである微分可能変換攻撃(DTA)を提案する。
提案手法では,対象オブジェクトの本来の特性を維持しつつ,テクスチャの変更時にレンダリング対象の期待される変換を学習する,新しい微分可能変換ネットワーク(dtn)を利用する。
我々の攻撃フレームワークを利用することで、さまざまな物理世界変換を含むレガシなフォトリアリスティックレンダラーの利点と、差別性を提供することによるホワイトボックスアクセスの利点の両方を得ることができる。
実験の結果,我々のキャモフラージュした3D車両は,写真実写環境(例えば,Unreal EngineのCARLA)における最先端物体検出モデルを回避することができた。
さらに、スケールしたTesla Model 3での実証は、我々の方法が現実世界に応用可能であることを証明している。
関連論文リスト
- Adversarial Attacks Using Differentiable Rendering: A Survey [41.133107951792496]
微分可能なレンダリング手法は、写真現実的で物理的に妥当な敵攻撃を生成するための有望な手段として現れてきた。
我々の調査は、研究者や実践者が敵の攻撃に対するコンピュータビジョンシステムの脆弱性をよりよく理解するのに役立ちます。
論文 参考訳(メタデータ) (2024-11-14T19:03:11Z) - Flexible Physical Camouflage Generation Based on a Differential Approach [6.645986533504748]
本研究は、特に対向性カモフラージュに適したニューラルレンダリングに対する新しいアプローチを導入する。
我々の手法はFPAと呼ばれ、照明条件や材質の変化を忠実にシミュレートすることで従来の手法を超えています。
逆行性カモフラージュ法におけるFPAアプローチの有用性と有効性について検討した。
論文 参考訳(メタデータ) (2024-02-21T07:15:16Z) - Towards Transferable Targeted 3D Adversarial Attack in the Physical World [34.36328985344749]
移動可能な敵攻撃は、セキュリティクリティカルなタスクにより大きな脅威をもたらす可能性がある。
我々は、少数のマルチビュー画像からTransferable Targeted 3Dのテクスチャメッシュに迅速に再構成できるTT3Dという新しいフレームワークを開発した。
実験結果から,TT3Dは優れたクロスモデル転送性を示すだけでなく,異なるレンダリングやビジョンタスクにも適応性を維持することが示唆された。
論文 参考訳(メタデータ) (2023-12-15T06:33:14Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Camouflaged Image Synthesis Is All You Need to Boost Camouflaged
Detection [65.8867003376637]
本研究では,カモフラージュデータの合成フレームワークを提案する。
提案手法では,既存の物体検出モデルのトレーニングに使用可能な,現実的なカモフラージュ画像の生成に生成モデルを用いる。
我々のフレームワークは3つのデータセット上で最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-08-13T06:55:05Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - MoDA: Modeling Deformable 3D Objects from Casual Videos [84.29654142118018]
神経二元四元系ブレンドスキンニング(NeuDBS)を提案し,スキンを折り畳むことなく3次元点変形を実現する。
異なるフレーム間で2Dピクセルを登録する試みにおいて、標準空間内の3D点を符号化する標準特徴埋め込みの対応性を確立する。
本手法は,ヒトと動物の3Dモデルを,最先端の手法よりも質的,定量的な性能で再構築することができる。
論文 参考訳(メタデータ) (2023-04-17T13:49:04Z) - FCA: Learning a 3D Full-coverage Vehicle Camouflage for Multi-view
Physical Adversarial Attack [5.476797414272598]
そこで本研究では,FCA(Full-coverage Camouflage Attack)を提案する。
具体的には、まず、平面でないカモフラージュテクスチャを全車表面上でレンダリングする。
次に、レンダリングされたカモフラージュされた車両をフォトリアリスティックなシナリオに変換する変換関数を導入する。
論文 参考訳(メタデータ) (2021-09-15T10:17:12Z) - DPA: Learning Robust Physical Adversarial Camouflages for Object
Detectors [5.598600329573922]
そこで本研究では,Dense Proposals Attack (DPA) を提案し,検出器の頑健で物理的,ターゲットとした対向カモフラージュを学習する。
カモフラージュは、任意の視点と異なる照明条件下で撮影されたとき、敵対的であり続けるため、頑丈である。
We build a virtual 3D scene using the Unity Simulation engine to evaluate fair and reproducally different physical attack。
論文 参考訳(メタデータ) (2021-09-01T00:18:17Z) - Learning Transferable 3D Adversarial Cloaks for Deep Trained Detectors [72.7633556669675]
本稿では,人間の3dメッシュ上の攻撃パッチを訓練するパッチベースの攻撃パイプラインを提案する。
既存のadversarial patchとは異なり、我々の新しい3dadversarial patchは、さまざまなビューの下で堅牢に最先端の深層物体検出器を騙すことができる。
論文 参考訳(メタデータ) (2021-04-22T14:36:08Z) - SMPLpix: Neural Avatars from 3D Human Models [56.85115800735619]
従来のレンダリングと画素空間で動作する最新の生成ネットワークのギャップを埋める。
我々は、スパースな3Dメッシュ頂点をフォトリアリスティックな画像に変換するネットワークを訓練する。
我々は,フォトリアリズムのレベルとレンダリング効率の両面で,従来の微分可能よりも優位性を示す。
論文 参考訳(メタデータ) (2020-08-16T10:22:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。