論文の概要: Beyond the Patch: Exploring Vulnerabilities of Visuomotor Policies via Viewpoint-Consistent 3D Adversarial Object
- arxiv url: http://arxiv.org/abs/2603.04913v1
- Date: Thu, 05 Mar 2026 07:57:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.131399
- Title: Beyond the Patch: Exploring Vulnerabilities of Visuomotor Policies via Viewpoint-Consistent 3D Adversarial Object
- Title(参考訳): パッチを超えて:視点整合型3次元対向物体によるビジュモータポリシの脆弱性の探索
- Authors: Chanmi Lee, Minsung Yoon, Woojae Kim, Sebin Lee, Sung-eui Yoon,
- Abstract要約: 本研究は,3次元オブジェクトに対する視点整合型テクスチャ最適化手法を提案する。
最適化戦略として、我々はC2F(Coarse-to-Fine)カリキュラムによる変換への期待(EOT)を採用している。
さらに、サリエンシ誘導による摂動を統合して、政策の注意をリダイレクトし、ロボットを敵の物体に向けて継続的に駆動する目標損失を設計する。
- 参考スコア(独自算出の注目度): 26.15314358613966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network-based visuomotor policies enable robots to perform manipulation tasks but remain susceptible to perceptual attacks. For example, conventional 2D adversarial patches are effective under fixed-camera setups, where appearance is relatively consistent; however, their efficacy often diminishes under dynamic viewpoints from moving cameras, such as wrist-mounted setups, due to perspective distortions. To proactively investigate potential vulnerabilities beyond 2D patches, this work proposes a viewpoint-consistent adversarial texture optimization method for 3D objects through differentiable rendering. As optimization strategies, we employ Expectation over Transformation (EOT) with a Coarse-to-Fine (C2F) curriculum, exploiting distance-dependent frequency characteristics to induce textures effective across varying camera-object distances. We further integrate saliency-guided perturbations to redirect policy attention and design a targeted loss that persistently drives robots toward adversarial objects. Our comprehensive experiments show that the proposed method is effective under various environmental conditions, while confirming its black-box transferability and real-world applicability.
- Abstract(参考訳): ニューラルネットワークベースのビジュモータポリシにより、ロボットは操作タスクを実行できるが、知覚的攻撃の影響を受けない。
例えば、従来の2次元対向パッチは、外観が比較的一貫した固定カメラ設定では有効であるが、その有効性は、視線歪みのために手首に取り付けられた設定のような移動カメラからの動的視点で減少することが多い。
本研究は,2次元パッチを超える潜在的な脆弱性を積極的に調査するために,3次元オブジェクトに対する視点整合型テクスチャ最適化手法を提案する。
最適化手法として,C2F (Coarse-to-Fine) のカリキュラムを用いたEOT (Pre expectation over Transformation) を用いて,距離依存周波数特性を利用して,様々なカメラオブジェクト間のテクスチャを効果的に誘導する。
我々はさらに、サリエンシ誘導による摂動を統合し、政策の注意をリダイレクトし、ロボットを敵の物体へと継続的に駆動する目標損失を設計する。
本手法は, 各種環境条件下で有効であり, ブラックボックス転送性および実世界の適用性を確認した。
関連論文リスト
- Reinforced Embodied Active Defense: Exploiting Adaptive Interaction for Robust Visual Perception in Adversarial 3D Environments [26.37868865624549]
3次元環境における敵対的攻撃は、視覚知覚システムの信頼性に対する重要な脅威として現れてきた。
本稿では,環境への適応的探索と相互作用を活用する能動的防衛フレームワークであるReinforced Embodied Active Defense (Rein-EAD)を紹介する。
Rein-EADは、目に見えない、適応的な攻撃に対して堅牢な一般化を示し、現実世界の複雑なタスクに適している。
論文 参考訳(メタデータ) (2025-07-24T14:56:21Z) - 3D Gaussian Splatting Driven Multi-View Robust Physical Adversarial Camouflage Generation [50.03578546845548]
物理敵攻撃法は、ディープニューラルネットワークの脆弱性を露呈し、自律運転のような安全クリティカルなシナリオに重大な脅威をもたらす。
カモフラージュをベースとした物理的な攻撃は、パッチベースの攻撃よりも有望なアプローチであり、複雑な物理的環境においてより強力な対逆効果を提供する。
本稿では,PGAと命名された3Dガウススティング(3DGS)に基づく物理的攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-02T05:10:16Z) - The Meeseeks Mesh: Spatially Consistent 3D Adversarial Objects for BEV Detector [37.74333887056029]
3Dオブジェクト検出は、自律運転システムにおいて重要な要素である。
本稿では,3次元物体検出モデルの3次元敵攻撃に対する脆弱性について検討する。
実世界の攻撃シナリオに適した非侵襲的な3次元対向オブジェクトを生成する。
論文 参考訳(メタデータ) (2025-05-28T15:49:54Z) - AdvReal: Physical Adversarial Patch Generation Framework for Security Evaluation of Object Detection Systems [13.653653250544004]
本稿では,2次元領域と3次元領域の両方を対象とした統合的対角訓練フレームワークを提案する。
我々は,非剛性変形モデリングとテクスチャリマッピングを組み込んだリアリズム強化機構を開発する。
本手法は, YOLOv12における平均攻撃成功率 (ASR) を 70.13% の物理シナリオで達成する。
論文 参考訳(メタデータ) (2025-05-22T08:54:03Z) - Towards Physically Realizable Adversarial Attacks in Embodied Vision Navigation [18.218913010189237]
対象物に対向パッチを付けることで視覚ナビゲーションを具体化するための実用的な攻撃法を提案する。
敵のパッチは平均22.39%の航法成功率を低下させ, 実用性, 有効性, 自然性において従来の手法より優れていた。
論文 参考訳(メタデータ) (2024-09-16T08:21:22Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Unified Adversarial Patch for Visible-Infrared Cross-modal Attacks in
the Physical World [11.24237636482709]
我々は,単一パッチを同時に両モードで回避し,クロスモーダルな物理的攻撃を行える統一逆襲パッチを設計する。
本稿では, 対向パッチのコンパクトかつ滑らかな形状を実現することを目的とした, 境界制限型形状最適化手法を提案する。
提案手法はいくつかの最先端物体検出器に対して評価され,アタック成功率 (ASR) は80%以上である。
論文 参考訳(メタデータ) (2023-07-27T08:14:22Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - MoCaNet: Motion Retargeting in-the-wild via Canonicalization Networks [77.56526918859345]
そこで本研究では,制御された環境から3次元動作タスクを実現する新しいフレームワークを提案する。
モーションキャプチャシステムや3D再構成手順を使わずに、2Dモノクロ映像のキャラクタから3Dキャラクタへの体動を可能にする。
論文 参考訳(メタデータ) (2021-12-19T07:52:05Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。