論文の概要: Adversarial Patch Attacks on Vision-Based Cargo Occupancy Estimation via Differentiable 3D Simulation
- arxiv url: http://arxiv.org/abs/2511.19254v1
- Date: Mon, 24 Nov 2025 16:05:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.295409
- Title: Adversarial Patch Attacks on Vision-Based Cargo Occupancy Estimation via Differentiable 3D Simulation
- Title(参考訳): 微分可能3次元シミュレーションによる視覚的カーゴ占有率推定の逆パッチ攻撃
- Authors: Mohamed Rissal Hedna, Sesugh Samuel Nder,
- Abstract要約: 本研究では, 完全にシミュレーションされた3次元環境を用いて, 畳み込み型貨物乗員分類器への攻撃の可能性について検討した。
実験により, 3次元最適化パッチは特にサービス拒否シナリオにおいて, 高い攻撃成功率を達成することが示された。
これは、物理的に現実的で、完全にシミュレートされた3Dシーンにおける、貨物乗員推定のための敵のパッチ攻撃を調査する最初の研究である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer vision systems are increasingly adopted in modern logistics operations, including the estimation of trailer occupancy for planning, routing, and billing. Although effective, such systems may be vulnerable to physical adversarial attacks, particularly adversarial patches that can be printed and placed on interior surfaces. In this work, we study the feasibility of such attacks on a convolutional cargo-occupancy classifier using fully simulated 3D environments. Using Mitsuba 3 for differentiable rendering, we optimize patch textures across variations in geometry, lighting, and viewpoint, and compare their effectiveness to a 2D compositing baseline. Our experiments demonstrate that 3D-optimized patches achieve high attack success rates, especially in a denial-of-service scenario (empty to full), where success reaches 84.94 percent. Concealment attacks (full to empty) prove more challenging but still reach 30.32 percent. We analyze the factors influencing attack success, discuss implications for the security of automated logistics pipelines, and highlight directions for strengthening physical robustness. To our knowledge, this is the first study to investigate adversarial patch attacks for cargo-occupancy estimation in physically realistic, fully simulated 3D scenes.
- Abstract(参考訳): コンピュータビジョンシステムは、計画、ルーティング、請求のためのトレーラー占有率の推定など、現代の物流業務においてますます採用されている。
有効ではあるが、このようなシステムは物理的な敵攻撃、特に内面に印刷して配置できる敵パッチに対して脆弱である可能性がある。
本研究では, 完全に模擬された3次元環境を用いて, 畳み込み型貨物占有分類器への攻撃の可能性について検討した。
ミツバ3を用いて、幾何学、照明、視点のバリエーションにまたがるパッチテクスチャを最適化し、それらの効果を2次元合成ベースラインと比較する。
我々の実験は、3D最適化パッチが高い攻撃成功率を達成することを実証している。
包囲攻撃(完全な空白)はより困難であるが、それでも30.32%に達する。
我々は、攻撃の成功に影響を与える要因を分析し、自動ロジスティクスパイプラインのセキュリティへの影響を議論し、物理的堅牢性を強化するための方向性を明らかにする。
我々の知る限り、これは物理的に現実的で、完全にシミュレートされた3Dシーンにおける貨物占有率推定のための敵パッチ攻撃を調査する最初の研究である。
関連論文リスト
- 3DGAA: Realistic and Robust 3D Gaussian-based Adversarial Attack for Autonomous Driving [17.849564138275845]
本稿では,新しい対向オブジェクト生成フレームワークである3D Gaussian-based Adrial Attack (3DGAA)を提案する。
パッチやテクスチャ最適化に依存する以前の作品とは異なり、3DGAAは幾何学的属性と外見的属性の両方を共同で摂動する。
3DGAAは検出mAPを87.21%から7.38%に減らし、既存の3D物理攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2025-07-14T07:27:52Z) - 3D Gaussian Splatting Driven Multi-View Robust Physical Adversarial Camouflage Generation [50.03578546845548]
物理敵攻撃法は、ディープニューラルネットワークの脆弱性を露呈し、自律運転のような安全クリティカルなシナリオに重大な脅威をもたらす。
カモフラージュをベースとした物理的な攻撃は、パッチベースの攻撃よりも有望なアプローチであり、複雑な物理的環境においてより強力な対逆効果を提供する。
本稿では,PGAと命名された3Dガウススティング(3DGS)に基づく物理的攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-02T05:10:16Z) - AdvReal: Physical Adversarial Patch Generation Framework for Security Evaluation of Object Detection Systems [13.653653250544004]
本稿では,2次元領域と3次元領域の両方を対象とした統合的対角訓練フレームワークを提案する。
我々は,非剛性変形モデリングとテクスチャリマッピングを組み込んだリアリズム強化機構を開発する。
本手法は, YOLOv12における平均攻撃成功率 (ASR) を 70.13% の物理シナリオで達成する。
論文 参考訳(メタデータ) (2025-05-22T08:54:03Z) - Poison-splat: Computation Cost Attack on 3D Gaussian Splatting [90.88713193520917]
3DGSで見過ごされてきた重大なセキュリティ脆弱性を明らかにします。
相手は入力画像に毒を加えることで、3DGSトレーニングに必要な計算メモリと時間を大幅に増加させることができる。
このような計算コスト攻撃は、二段階最適化問題に3つの最適化戦略で対処することで達成される。
論文 参考訳(メタデータ) (2024-10-10T17:57:29Z) - Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。