論文の概要: CNCA: Toward Customizable and Natural Generation of Adversarial Camouflage for Vehicle Detectors
- arxiv url: http://arxiv.org/abs/2409.17963v1
- Date: Thu, 26 Sep 2024 15:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 16:52:13.017259
- Title: CNCA: Toward Customizable and Natural Generation of Adversarial Camouflage for Vehicle Detectors
- Title(参考訳): CNCA:自動車検出器用対向カモフラージュのカスタマイズと自然生成に向けて
- Authors: Linye Lyu, Jiawei Zhou, Daojing He, Yu Li,
- Abstract要約: 既訓練拡散モデルを利用したCNCA(Customizable and Natural Camouflage Attack)を提案する。
本手法は,攻撃性能を維持しつつ,自然かつカスタマイズ可能な対向カモフラージュを生成することができる。
- 参考スコア(独自算出の注目度): 19.334642862951537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior works on physical adversarial camouflage against vehicle detectors mainly focus on the effectiveness and robustness of the attack. The current most successful methods optimize 3D vehicle texture at a pixel level. However, this results in conspicuous and attention-grabbing patterns in the generated camouflage, which humans can easily identify. To address this issue, we propose a Customizable and Natural Camouflage Attack (CNCA) method by leveraging an off-the-shelf pre-trained diffusion model. By sampling the optimal texture image from the diffusion model with a user-specific text prompt, our method can generate natural and customizable adversarial camouflage while maintaining high attack performance. With extensive experiments on the digital and physical worlds and user studies, the results demonstrate that our proposed method can generate significantly more natural-looking camouflage than the state-of-the-art baselines while achieving competitive attack performance. Our code is available at \href{https://anonymous.4open.science/r/CNCA-1D54}{https://anonymous.4open.science/r/CNCA-1D54}
- Abstract(参考訳): 車両探知機に対する物理的対向カモフラージュの研究は、主に攻撃の有効性と堅牢性に焦点を当てていた。
現在最も成功した方法は、ピクセルレベルで3D車両のテクスチャを最適化することである。
しかし、これによって、人間が容易に識別できるカモフラージュ生成において、目立たしく、注意を引くパターンが生まれる。
この問題に対処するために,市販の事前学習拡散モデルを活用することにより,CNCA(Customizable and Natural Camouflage Attack)手法を提案する。
ユーザ固有のテキストプロンプトを用いて拡散モデルから最適なテクスチャ画像をサンプリングすることにより、高い攻撃性能を維持しつつ、自然かつカスタマイズ可能な逆カモフラージュを生成することができる。
デジタルおよび物理的世界とユーザスタディに関する広範な実験により,提案手法は,攻撃性能を向上しつつ,最先端のベースラインよりもはるかに自然に見えるカモフラージュを生成できることが実証された。
我々のコードは \href{https://anonymous.4open.science/r/CNCA-1D54}{https://anonymous.4open.science/r/CNCA-1D54} で入手できる。
関連論文リスト
- RAUCA: A Novel Physical Adversarial Attack on Vehicle Detectors via Robust and Accurate Camouflage Generation [19.334642862951537]
本稿では,頑健で正確なカモフラージュ生成手法であるRAUCAを提案する。
RAUCAのコアはニューラルレンダリングコンポーネントであるNeural Renderer Plus(NRP)で、車両のテクスチャを正確に投影し、照明や天気などの環境特性を持つ画像を描画することができる。
6つの一般的な物体検出器の実験結果から、RAUCAはシミュレーションと実世界の両方の設定において、既存の手法を一貫して上回っていることが示されている。
論文 参考訳(メタデータ) (2024-02-24T16:50:10Z) - Flexible Physical Camouflage Generation Based on a Differential Approach [6.645986533504748]
本研究は、特に対向性カモフラージュに適したニューラルレンダリングに対する新しいアプローチを導入する。
我々の手法はFPAと呼ばれ、照明条件や材質の変化を忠実にシミュレートすることで従来の手法を超えています。
逆行性カモフラージュ法におけるFPAアプローチの有用性と有効性について検討した。
論文 参考訳(メタデータ) (2024-02-21T07:15:16Z) - The Making and Breaking of Camouflage [95.37449361842656]
背景特徴と前景特徴の類似性と境界視認性によってカモフラージュを測定することができることを示す。
提案したカモフラージュスコアを補助的損失として生成モデルに組み込んで,有効カモフラージュ画像やビデオがスケーラブルに合成可能であることを示す。
論文 参考訳(メタデータ) (2023-09-07T17:58:05Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z) - Natural Color Fool: Towards Boosting Black-box Unrestricted Attacks [68.48271396073156]
本研究では, 画像品質を損なうことなく, 反対例の転写性を向上するNatural Color Fool (NCF) を提案する。
その結果、NCFは、通常訓練されたモデルを騙す場合の15.0%$sim$32.9%、防御手法を回避する場合の10.0%$sim$25.3%で、最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2022-10-05T06:24:16Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Towards Deeper Understanding of Camouflaged Object Detection [64.81987999832032]
バイナリセグメンテーション設定は、カモフラージュの概念を完全に理解できない。
そこで本研究では,カモフラージュされたオブジェクトの局所化,セグメント化,ランク付けを同時に行う3段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:26:18Z) - FCA: Learning a 3D Full-coverage Vehicle Camouflage for Multi-view
Physical Adversarial Attack [5.476797414272598]
そこで本研究では,FCA(Full-coverage Camouflage Attack)を提案する。
具体的には、まず、平面でないカモフラージュテクスチャを全車表面上でレンダリングする。
次に、レンダリングされたカモフラージュされた車両をフォトリアリスティックなシナリオに変換する変換関数を導入する。
論文 参考訳(メタデータ) (2021-09-15T10:17:12Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z) - Adversarial Camouflage: Hiding Physical-World Attacks with Natural
Styles [40.57099683047126]
そこで我々は,人間の観察者にとって正当な自然スタイルへの,工芸とカモフラージュの物理世界敵の新たなアプローチを提案する。
emphAdvCamは、ディープラーニングシステムによって個人情報が検出されるのを防ぐためにも使用できる。
論文 参考訳(メタデータ) (2020-03-08T07:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。