論文の概要: Adversarial samples for deep monocular 6D object pose estimation
- arxiv url: http://arxiv.org/abs/2203.00302v1
- Date: Tue, 1 Mar 2022 09:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 20:47:06.710277
- Title: Adversarial samples for deep monocular 6D object pose estimation
- Title(参考訳): 深部単眼6次元物体ポーズ推定のための逆サンプル
- Authors: Jinlai Zhang, Weiming Li, Shuang Liang, Hao Wang, Jihong Zhu
- Abstract要約: RGB画像からオブジェクト6Dのポーズを推定することは、自律運転やロボットグリップといった現実の多くのアプリケーションにとって重要である。
本研究では,最先端深層学習(SOTA)に基づく6次元ポーズ推定モデルを騙しうる敵対的サンプルについて検討する。
- 参考スコア(独自算出の注目度): 16.308526930732718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating object 6D pose from an RGB image is important for many real-world
applications such as autonomous driving and robotic grasping, where robustness
of the estimation is crucial. In this work, for the first time, we study
adversarial samples that can fool state-of-the-art (SOTA) deep learning based
6D pose estimation models. In particular, we propose a Unified 6D pose
estimation Attack, namely U6DA, which can successfully attack all the three
main categories of models for 6D pose estimation. The key idea of our U6DA is
to fool the models to predict wrong results for object shapes that are
essential for correct 6D pose estimation. Specifically, we explore a
transfer-based black-box attack to 6D pose estimation. By shifting the
segmentation attention map away from its original position, adversarial samples
are crafted. We show that such adversarial samples are not only effective for
the direct 6D pose estimation models, but also able to attack the two-stage
based models regardless of their robust RANSAC modules. Extensive experiments
were conducted to demonstrate the effectiveness of our U6DA with large-scale
public benchmarks. We also introduce a new U6DA-Linemod dataset for robustness
study of the 6D pose estimation task. Our codes and dataset will be available
at \url{https://github.com/cuge1995/U6DA}.
- Abstract(参考訳): rgb画像からオブジェクト6dのポーズを推定することは、自動運転やロボットによる把持など、多くの現実のアプリケーションにとって重要である。
本研究では,まず,最先端の深層学習(SOTA)に基づく6次元ポーズ推定モデルを騙し得る敵のサンプルについて検討する。
特に,6次元ポーズ推定のための3つの主要カテゴリのモデルをすべて攻撃できる統一的な6次元ポーズ推定攻撃,すなわちu6daを提案する。
u6daの重要なアイデアは、正しい6dポーズ推定に不可欠なオブジェクト形状の間違った結果を予測するモデルを騙すことです。
具体的には,6次元ポーズ推定のための移動型ブラックボックス攻撃について検討する。
セグメンテーションアテンションマップを元の位置から遠ざけることにより、逆さまのサンプルが作られる。
このような敵対的サンプルは, 直接的な6次元ポーズ推定モデルに有効であるだけでなく, 頑健なransacモジュールによらず2段階モデルにも適用可能であることを示した。
大規模公開ベンチマークによるU6DAの有効性の実証実験を行った。
また、6次元ポーズ推定タスクのロバストネス研究のための新しいU6DA-Linemodデータセットも導入した。
コードとデータセットは \url{https://github.com/cuge1995/U6DA} で公開されます。
関連論文リスト
- Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - Imitrob: Imitation Learning Dataset for Training and Evaluating 6D
Object Pose Estimators [20.611000416051546]
本稿では,標準RGBカメラで捉えたタスクデモにおける手持ちツールの6次元ポーズ推定のためのトレーニングと評価のためのデータセットを提案する。
このデータセットには、9つの異なるツールと12の操作タスクのイメージシーケンスが含まれており、2つのカメラ視点、4人の被写体、そして左右手である。
論文 参考訳(メタデータ) (2022-09-16T14:43:46Z) - Category-Level 6D Object Pose Estimation in the Wild: A Semi-Supervised
Learning Approach and A New Dataset [12.40437099476348]
カテゴリーレベルの6次元オブジェクトのポーズ推定を半教師付き学習で一般化する。
提案手法は, 合成データと自由接地構造を用いて協調的に学習するRendering for Pose Estimation Network RePoNetという新しいモデルを提案する。
提案手法は,前回のデータセットとWild6Dテストセット(評価用手動アノテーション付き)の最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-06-30T17:30:57Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - NeRF-Pose: A First-Reconstruct-Then-Regress Approach for
Weakly-supervised 6D Object Pose Estimation [44.42449011619408]
トレーニング中に2次元オブジェクトセグメンテーションと既知の相対カメラポーズしか必要としないNeRF-Poseという,弱教師付き再構築型パイプラインを提案する。
予測応答から安定かつ正確なポーズを推定するために、NeRF対応RAN+SACアルゴリズムを用いる。
LineMod-Occlusion 実験の結果,提案手法は6次元ポーズ推定法と比較して最先端の精度を持つことがわかった。
論文 参考訳(メタデータ) (2022-03-09T15:28:02Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。