論文の概要: 6DAttack: Backdoor Attacks in the 6DoF Pose Estimation
- arxiv url: http://arxiv.org/abs/2512.19058v1
- Date: Mon, 22 Dec 2025 05:49:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.635978
- Title: 6DAttack: Backdoor Attacks in the 6DoF Pose Estimation
- Title(参考訳): 6DAttack: 6DoF Poseの推定におけるバックドア攻撃
- Authors: Jihui Guo, Zongmin Zhang, Zhen Sun, Yuhao Yang, Jinlin Wu, Fu Zhang, Xinlei He,
- Abstract要約: 6DoFのポーズ推定は、ロボット工学、AR/VR、自律システムで広く使われている。
バックドア攻撃は重大なセキュリティリスクを引き起こす。
本稿では,3次元オブジェクトトリガを用いた誤ったポーズを誘発するフレームワークである6DAttackを提案する。
- 参考スコア(独自算出の注目度): 15.592520435073602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning advances have enabled accurate six-degree-of-freedom (6DoF) object pose estimation, widely used in robotics, AR/VR, and autonomous systems. However, backdoor attacks pose significant security risks. While most research focuses on 2D vision, 6DoF pose estimation remains largely unexplored. Unlike traditional backdoors that only change classes, 6DoF attacks must control continuous parameters like translation and rotation, rendering 2D methods inapplicable. We propose 6DAttack, a framework using 3D object triggers to induce controlled erroneous poses while maintaining normal behavior. Evaluations on PVNet, DenseFusion, and PoseDiffusion across LINEMOD, YCB-Video, and CO3D show high attack success rates (ASRs) without compromising clean performance. Backdoored models achieve up to 100% clean ADD accuracy and 100% ASR, with triggered samples reaching 97.70% ADD-P. Furthermore, a representative defense remains ineffective. Our findings reveal a serious, underexplored threat to 6DoF pose estimation.
- Abstract(参考訳): ディープラーニングの進歩により、ロボット工学、AR/VR、自律システムで広く使われている6自由度(6DoF)オブジェクトのポーズ推定が可能になった。
しかし、バックドア攻撃は重大なセキュリティリスクを引き起こす。
ほとんどの研究は2次元視覚に焦点を当てているが、6DoFのポーズ推定はほとんど未調査のままである。
クラスのみを変更する従来のバックドアとは異なり、6DoF攻撃は2Dメソッドを適用できないように翻訳やローテーションのような連続的なパラメータを制御する必要がある。
通常の動作を維持しながら,3次元オブジェクトトリガを用いた誤ったポーズを誘発するフレームワークである6DAttackを提案する。
PVNet, DenseFusion, PoseDiffusionのLINEMOD, YCB-Video, CO3Dに対する評価は, クリーンパフォーマンスを損なうことなく高い攻撃成功率(ASR)を示す。
バックドアモデルは100%クリーンなADD精度と100%ASRを実現し、トリガーサンプルは97.70%のADD-Pに達する。
さらに、代表的防衛は効果が残っていない。
以上の結果から,6DoFのポーズ推定に対する深刻な過小評価の脅威が明らかとなった。
関連論文リスト
- Isolate Trigger: Detecting and Eradicating Evade-Adaptive Backdoors [10.061164320086181]
Isolate Trigger (IsTr) と呼ばれる高精度で効率的で普遍的な検出・防御フレームワークを導入する。
IsTrは、ソース機能のバリアを壊すことで、隠れたトリガーを見つけることを目的としている。
6回のEAB攻撃に対するIsTrの有効性を厳格に評価した。
論文 参考訳(メタデータ) (2025-08-06T05:21:40Z) - Stealthy and Robust Backdoor Attack against 3D Point Clouds through Additional Point Features [7.066252856912398]
3Dバックドア攻撃は、3Dポイントクラウド用に設計された3Dディープニューラルネットワーク(3D DNN)に重大な脅威をもたらしている。
本稿では、意図的な設計上の考慮を通じて頑丈さとステルス性を保証するSRBA(Stealthy and Robust Backdoor Attack)を紹介する。
論文 参考訳(メタデータ) (2024-12-10T13:48:11Z) - BadFusion: 2D-Oriented Backdoor Attacks against 3D Object Detection [12.987427748635037]
3Dオブジェクト検出は、自動運転において重要な役割を果たすが、バックドア攻撃に対する脆弱性は明らかになっている。
既存の3Dオブジェクト検出に対するバックドア攻撃は主に3D LiDARシグナルを毒する。
本稿では,3次元物体検出のためのLiDAR-camera fusion法に対して,BadFusionと呼ばれる革新的な2D指向のバックドアアタックを提案する。
論文 参考訳(メタデータ) (2024-05-06T22:02:38Z) - Elijah: Eliminating Backdoors Injected in Diffusion Models via
Distribution Shift [86.92048184556936]
DMの最初のバックドア検出・除去フレームワークを提案する。
DDPM, NCSN, LDMを含む3種類のDMを用いて, フレームワークのElijahを評価した。
提案手法では, モデルの有用性を著しく損なうことなく, 検出精度が100%に近づき, バックドア効果をゼロに抑えることができる。
論文 参考訳(メタデータ) (2023-11-27T23:58:56Z) - AdvMono3D: Advanced Monocular 3D Object Detection with Depth-Aware
Robust Adversarial Training [64.14759275211115]
そこで本研究では,DART3Dと呼ばれるモノクル3次元物体検出のための,深度対応の頑健な対向学習法を提案する。
我々の敵の訓練アプローチは、本質的な不確実性に乗じて、敵の攻撃に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-09-03T07:05:32Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Physical Attack on Monocular Depth Estimation with Optimal Adversarial
Patches [18.58673451901394]
我々は学習に基づく単眼深度推定(MDE)に対する攻撃を開発する。
我々は,攻撃のステルス性と有効性を,オブジェクト指向の対角設計,感度領域の局所化,自然スタイルのカモフラージュとバランスさせる。
実験結果から,本手法は,異なる対象オブジェクトやモデルに対して,ステルス性,有効,堅牢な逆パッチを生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-11T08:59:09Z) - PointBA: Towards Backdoor Attacks in 3D Point Cloud [38.840590323016606]
バックドア攻撃を3Dデータとネットワークのユニークな特性を利用する統一的なフレームワークで3Dポイントクラウドに提示する。
提案するバックドアアタックは,3次元深部モデルの堅牢性向上のためのベースラインとして期待できる。
論文 参考訳(メタデータ) (2021-03-30T04:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。