論文の概要: 3D Gaussian Splatting Driven Multi-View Robust Physical Adversarial Camouflage Generation
- arxiv url: http://arxiv.org/abs/2507.01367v1
- Date: Wed, 02 Jul 2025 05:10:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.053955
- Title: 3D Gaussian Splatting Driven Multi-View Robust Physical Adversarial Camouflage Generation
- Title(参考訳): 3次元ガウス平滑駆動多視点ロバスト物理逆カモフラージュ生成
- Authors: Tianrui Lou, Xiaojun Jia, Siyuan Liang, Jiawei Liang, Ming Zhang, Yanjun Xiao, Xiaochun Cao,
- Abstract要約: 物理敵攻撃法は、ディープニューラルネットワークの脆弱性を露呈し、自律運転のような安全クリティカルなシナリオに重大な脅威をもたらす。
カモフラージュをベースとした物理的な攻撃は、パッチベースの攻撃よりも有望なアプローチであり、複雑な物理的環境においてより強力な対逆効果を提供する。
本稿では,PGAと命名された3Dガウススティング(3DGS)に基づく物理的攻撃フレームワークを提案する。
- 参考スコア(独自算出の注目度): 50.03578546845548
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Physical adversarial attack methods expose the vulnerabilities of deep neural networks and pose a significant threat to safety-critical scenarios such as autonomous driving. Camouflage-based physical attack is a more promising approach compared to the patch-based attack, offering stronger adversarial effectiveness in complex physical environments. However, most prior work relies on mesh priors of the target object and virtual environments constructed by simulators, which are time-consuming to obtain and inevitably differ from the real world. Moreover, due to the limitations of the backgrounds in training images, previous methods often fail to produce multi-view robust adversarial camouflage and tend to fall into sub-optimal solutions. Due to these reasons, prior work lacks adversarial effectiveness and robustness across diverse viewpoints and physical environments. We propose a physical attack framework based on 3D Gaussian Splatting (3DGS), named PGA, which provides rapid and precise reconstruction with few images, along with photo-realistic rendering capabilities. Our framework further enhances cross-view robustness and adversarial effectiveness by preventing mutual and self-occlusion among Gaussians and employing a min-max optimization approach that adjusts the imaging background of each viewpoint, helping the algorithm filter out non-robust adversarial features. Extensive experiments validate the effectiveness and superiority of PGA. Our code is available at:https://github.com/TRLou/PGA.
- Abstract(参考訳): 物理敵攻撃法は、ディープニューラルネットワークの脆弱性を露呈し、自律運転のような安全クリティカルなシナリオに重大な脅威をもたらす。
カモフラージュをベースとした物理的な攻撃は、パッチベースの攻撃よりも有望なアプローチであり、複雑な物理的環境においてより強力な対逆効果を提供する。
しかし、従来の作業のほとんどは、ターゲットオブジェクトのメッシュ先行とシミュレータによって構築された仮想環境に依存しており、実際の世界と必然的に異なる。
さらに、トレーニング画像の背景に制限があるため、従来の手法では多視点の頑健な対向カモフラージュを生成できないことが多く、準最適解に陥る傾向がある。
これらの理由から、事前の作業は様々な視点や物理的環境にまたがる敵の効力と頑健さを欠いている。
我々はPGAと呼ばれる3Dガウススティング(3DGS)に基づく物理的攻撃フレームワークを提案する。
本フレームワークは,ガウス人との相互・自己閉塞を防止し,各視点の撮像背景を最適化するmin-max最適化手法を用いて,非ローバストな対向的特徴の抽出を支援することにより,対向的ロバスト性と対向的効果をさらに向上させる。
大規模な実験は、PGAの有効性と優越性を検証した。
私たちのコードは、https://github.com/TRLou/PGA.comで公開されています。
関連論文リスト
- RobustSplat: Decoupling Densification and Dynamics for Transient-Free 3DGS [79.15416002879239]
3D Gaussian Splattingは、ノベルビュー合成と3Dモデリングにおけるリアルタイム、フォトリアリスティックレンダリングにおいて大きな注目を集めている。
既存の手法は、過渡的なオブジェクトに影響されたシーンを正確にモデル化するのに苦労し、描画された画像のアーティファクトに繋がる。
2つの重要な設計に基づく堅牢なソリューションであるRobustSplatを提案する。
論文 参考訳(メタデータ) (2025-06-03T11:13:48Z) - Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - Tailoring Adversarial Attacks on Deep Neural Networks for Targeted Class Manipulation Using DeepFool Algorithm [6.515472477685614]
敵対的攻撃に対するディープニューラルネットワーク(DNN)の感受性は、多くのアプリケーションにまたがる信頼性を損なう。
このアルゴリズムは,所望の誤分類対象の指定を容易にするだけでなく,最小限の信頼スコアも組み込む。
我々の実証的研究は、画像の整合性を維持する上で、この洗練されたアプローチが優れていることを示すものである。
論文 参考訳(メタデータ) (2023-10-18T18:50:39Z) - Unified Adversarial Patch for Visible-Infrared Cross-modal Attacks in
the Physical World [11.24237636482709]
我々は,単一パッチを同時に両モードで回避し,クロスモーダルな物理的攻撃を行える統一逆襲パッチを設計する。
本稿では, 対向パッチのコンパクトかつ滑らかな形状を実現することを目的とした, 境界制限型形状最適化手法を提案する。
提案手法はいくつかの最先端物体検出器に対して評価され,アタック成功率 (ASR) は80%以上である。
論文 参考訳(メタデータ) (2023-07-27T08:14:22Z) - AdvART: Adversarial Art for Camouflaged Object Detection Attacks [7.7889972735711925]
本稿では,自然主義的かつ不明瞭な敵パッチを生成するための新しいアプローチを提案する。
本手法は,パッチ内の画素値を直接操作することで,高い柔軟性と広い空間を実現する。
我々の攻撃は、デジタルワールドとエッジのスマートカメラでそれぞれ91.19%と72%の優れた成功率を達成する。
論文 参考訳(メタデータ) (2023-03-03T06:28:05Z) - Learning When to Use Adaptive Adversarial Image Perturbations against
Autonomous Vehicles [0.0]
物体検出のためのディープニューラルネットワーク(DNN)モデルは、逆画像摂動の影響を受けやすい。
敵の摂動を発生させる攻撃者の能力をモニタする多段階最適化フレームワークを提案する。
本手法では,攻撃者が状態推定に精通した時刻を監視しながら,リアルタイムに画像攻撃を発生させる能力を示す。
論文 参考訳(メタデータ) (2022-12-28T02:36:58Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - SPAA: Stealthy Projector-based Adversarial Attacks on Deep Image
Classifiers [82.19722134082645]
本稿では,ステルスプロジェクタを用いた対向攻撃を提案する。
PCNetというディープニューラルネットワークを用いて実際のプロジェクトとキャプチャ操作を推定します。
実験の結果,SPAAは高い攻撃成功率を達成し,他の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-12-10T18:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。