論文の概要: AngleRoCL: Angle-Robust Concept Learning for Physically View-Invariant T2I Adversarial Patches
- arxiv url: http://arxiv.org/abs/2506.09538v1
- Date: Wed, 11 Jun 2025 09:14:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.792313
- Title: AngleRoCL: Angle-Robust Concept Learning for Physically View-Invariant T2I Adversarial Patches
- Title(参考訳): AngleRoCL:物理ビュー不変なT2I対応パッチのためのアングル・ロバスト概念学習
- Authors: Wenjun Ji, Yuxiang Fu, Luyang Ying, Deng-Ping Fan, Yuyi Wang, Ming-Ming Cheng, Ivor Tsang, Qing Guo,
- Abstract要約: テキスト・トゥ・イメージ(T2I)拡散モデルは、物理的世界における最先端の物体検出器を誤解させる敵のパッチを生成することができる。
本稿では,アングル・ロバスト概念学習(Angle-Robust Concept Learning, AngleRoCL)を紹介し,アングル・ロバストパッチの生成能力について述べる。
その結果, AngleRoCLはベースライン法と比較して, T2I 対向パッチの角度堅牢性を大幅に向上させることがわかった。
- 参考スコア(独自算出の注目度): 63.95103818483424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cutting-edge works have demonstrated that text-to-image (T2I) diffusion models can generate adversarial patches that mislead state-of-the-art object detectors in the physical world, revealing detectors' vulnerabilities and risks. However, these methods neglect the T2I patches' attack effectiveness when observed from different views in the physical world (i.e., angle robustness of the T2I adversarial patches). In this paper, we study the angle robustness of T2I adversarial patches comprehensively, revealing their angle-robust issues, demonstrating that texts affect the angle robustness of generated patches significantly, and task-specific linguistic instructions fail to enhance the angle robustness. Motivated by the studies, we introduce Angle-Robust Concept Learning (AngleRoCL), a simple and flexible approach that learns a generalizable concept (i.e., text embeddings in implementation) representing the capability of generating angle-robust patches. The learned concept can be incorporated into textual prompts and guides T2I models to generate patches with their attack effectiveness inherently resistant to viewpoint variations. Through extensive simulation and physical-world experiments on five SOTA detectors across multiple views, we demonstrate that AngleRoCL significantly enhances the angle robustness of T2I adversarial patches compared to baseline methods. Our patches maintain high attack success rates even under challenging viewing conditions, with over 50% average relative improvement in attack effectiveness across multiple angles. This research advances the understanding of physically angle-robust patches and provides insights into the relationship between textual concepts and physical properties in T2I-generated contents.
- Abstract(参考訳): カットエッジの研究は、テキスト・トゥ・イメージ(T2I)拡散モデルが物理的世界の最先端の物体検出器を誤解させる敵のパッチを生成し、検出器の脆弱性とリスクを明らかにすることを示した。
しかし、これらの手法は物理的世界の異なる視点(すなわちT2I対向パッチのアングルロバスト性)で観察された場合、T2Iパッチの攻撃効果を無視する。
本稿では,T2I対向パッチのアングルロバスト性を包括的に検討し,それらのアングルロバスト問題を明らかにし,テキストが生成されたパッチのアングルロバスト性に大きく影響し,タスク固有の言語命令がアングルロバスト性を高めることができないことを示す。
本研究では,アングル・ロバスト概念学習(Angle-Robust Concept Learning, AngleRoCL)を提案する。
学習された概念はテキストのプロンプトに組み込むことができ、T2Iモデルを誘導して、その攻撃効果が本質的に視点の変化に耐性を持つパッチを生成する。
多視点にわたる5つのSOTA検出器の広範囲なシミュレーションと物理世界実験により、アングルロクリはベースライン法と比較してT2I対向パッチの角度ロバスト性を著しく向上させることを示した。
我々のパッチは、難易度の高い視聴条件下でも高い攻撃成功率を維持しており、複数の角度にわたる攻撃効率の平均50%以上の改善が達成されている。
本研究は,T2I生成コンテンツにおけるテキスト概念と物理的特性の関係についての知見を提供する。
関連論文リスト
- All Patches Matter, More Patches Better: Enhance AI-Generated Image Detection via Panoptic Patch Learning [45.37237171823581]
AI生成画像(AIGI)の指数的成長は、堅牢で一般化可能な検出方法の緊急の必要性を浮き彫りにしている。
本稿では,系統解析によるAIGI検出の2つの重要な原則を確立する。
論文 参考訳(メタデータ) (2025-04-02T06:32:09Z) - Unified Prompt Attack Against Text-to-Image Generation Models [30.24530622359188]
攻撃の観点からT2Iモデルのロバスト性を評価するためのフレームワークであるUPAMを提案する。
UPAMはテキストと視覚の両方に対する攻撃を統合する。
また、効率と効率性を改善するために列挙への依存を克服し、勾配ベースの最適化を可能にする。
論文 参考訳(メタデータ) (2025-02-23T03:36:18Z) - Few-Shot Adversarial Prompt Learning on Vision-Language Models [62.50622628004134]
知覚不能な逆境摂動に対するディープニューラルネットワークの脆弱性は、広く注目を集めている。
それまでの努力は、相手の視覚的特徴をテキストの監督と整合させることで、ゼロショットの敵の堅牢性を達成した。
本稿では、限られたデータで入力シーケンスを適応させることで、対向性を大幅に向上させる、数ショットの対向的プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:28:43Z) - GuardT2I: Defending Text-to-Image Models from Adversarial Prompts [16.317849859000074]
GuardT2Iは、T2Iモデルの敵のプロンプトに対する堅牢性を高めるための生成的アプローチを採用する、新しいモデレーションフレームワークである。
実験の結果、GardetT2IはOpenAI-ModerationやMicrosoft Azure Moderatorといった主要な商用ソリューションよりも優れています。
論文 参考訳(メタデータ) (2024-03-03T09:04:34Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object Detectors in the Physical World [7.1343035828597685]
我々は、一般化理論を敵対的パッチ(AP)の文脈に導入する。
本稿では、転送性、ステルス性、実用性を向上させるために、DPBF(Dual-Perception-Based Framework)を提案する。
MVPatchは、デジタルドメインと物理ドメインの両方において、優れた転送可能性と自然な外観を実現し、その有効性とステルス性を強調している。
論文 参考訳(メタデータ) (2023-12-29T01:52:22Z) - Adversarial Attacks in a Multi-view Setting: An Empirical Study of the
Adversarial Patches Inter-view Transferability [3.1542695050861544]
敵攻撃は、検知器を騙す可能性のある入力への加算ノイズからなる。
最近の実世界の印刷可能な敵パッチは、最先端のニューラルネットワークに対して効果的であることが証明された。
視角が対向パッチの有効性に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2021-10-10T19:59:28Z) - Enhancing Adversarial Robustness via Test-time Transformation Ensembling [51.51139269928358]
テスト時間変換を組み込んだモデルを組み込むことが,敵攻撃に対する信頼性の高い防御手段として有効であることを示す。
TTEは、再トレーニングを必要とせずに、様々な強力な攻撃に対するモデルロバスト性を一貫して改善することを示します。
論文 参考訳(メタデータ) (2021-07-29T15:32:35Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。