論文の概要: Instance-specific 6-DoF Object Pose Estimation from Minimal Annotations
- arxiv url: http://arxiv.org/abs/2207.13264v1
- Date: Wed, 27 Jul 2022 03:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:52:11.597107
- Title: Instance-specific 6-DoF Object Pose Estimation from Minimal Annotations
- Title(参考訳): 最小アノテーションによるインスタンス固有の6自由度オブジェクトポーズ推定
- Authors: Rohan Pratap Singh, Iori Kumagai, Antonio Gabas, Mehdi Benallegue,
Yusuke Yoshiyasu, Fumio Kanehiro
- Abstract要約: 本稿では,単一のRGB画像からオブジェクトの連続6-DoFポーズを推定するためのパイプラインを高速に訓練し,デプロイする方法を提案する。
キーとなるアイデアは、既知のカメラのポーズと剛体形状を利用して、大きなラベル付きデータセットの生成を部分的に自動化することだ。
データセットは十分なドメインランダム化とともに、セマンティックキーポイントを予測するためのディープニューラルネットワークのトレーニングを監督するために使用される。
- 参考スコア(独自算出の注目度): 6.24717069374781
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many robotic applications, the environment setting in which the 6-DoF pose
estimation of a known, rigid object and its subsequent grasping is to be
performed, remains nearly unchanging and might even be known to the robot in
advance. In this paper, we refer to this problem as instance-specific pose
estimation: the robot is expected to estimate the pose with a high degree of
accuracy in only a limited set of familiar scenarios. Minor changes in the
scene, including variations in lighting conditions and background appearance,
are acceptable but drastic alterations are not anticipated. To this end, we
present a method to rapidly train and deploy a pipeline for estimating the
continuous 6-DoF pose of an object from a single RGB image. The key idea is to
leverage known camera poses and rigid body geometry to partially automate the
generation of a large labeled dataset. The dataset, along with sufficient
domain randomization, is then used to supervise the training of deep neural
networks for predicting semantic keypoints. Experimentally, we demonstrate the
convenience and effectiveness of our proposed method to accurately estimate
object pose requiring only a very small amount of manual annotation for
training.
- Abstract(参考訳): 多くのロボット応用において、6-DoFが既知の剛体物体を推定し、その後の把握を行う環境設定は、ほとんど変化せず、事前にロボットに知られていることもある。
本稿では,この問題を事例特異的なポーズ推定として言及する: ロボットは,慣れ親しんだシナリオの限られたセットにおいて,高い精度でポーズを推定することが期待される。
照明条件の変化や背景の外観など、シーンの小さな変化は許容されるが、劇的な変化は期待できない。
そこで本研究では,RGB画像からオブジェクトの連続的な6-DoFポーズを推定するためのパイプラインを高速に訓練し,デプロイする手法を提案する。
重要なアイデアは、既知のカメラポーズと剛体形状を利用して、大きなラベル付きデータセットの生成を部分的に自動化することだ。
データセットは十分なドメインランダム化とともに、セマンティックキーポイントを予測するためのディープニューラルネットワークのトレーニングを監督するために使用される。
提案手法の有用性と有効性について実験的に検証し,ごく少数の手動アノテーションを必要とするオブジェクトポーズを正確に推定する。
関連論文リスト
- YOLOPose V2: Understanding and Improving Transformer-based 6D Pose
Estimation [36.067414358144816]
YOLOPoseはトランスフォーマーベースの多目的6Dポーズ推定法である。
キーポイントから向きを予測するために,学習可能な向き推定モジュールを用いる。
提案手法はリアルタイムアプリケーションに適した手法であり,最先端の手法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2023-07-21T12:53:54Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation [17.440729138126162]
あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
論文 参考訳(メタデータ) (2022-11-02T08:57:20Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - VIPose: Real-time Visual-Inertial 6D Object Pose Tracking [3.44942675405441]
本稿では,オブジェクトのポーズ追跡問題にリアルタイムに対処するために,VIPoseと呼ばれる新しいディープニューラルネットワーク(DNN)を提案する。
重要な貢献は、オブジェクトの相対的な6Dポーズを予測するために視覚的および慣性的特徴を融合する新しいDNNアーキテクチャの設計である。
このアプローチでは、最先端技術に匹敵する精度性能を示すが、リアルタイムであることにはさらなるメリットがある。
論文 参考訳(メタデータ) (2021-07-27T06:10:23Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Continuous close-range 3D object pose estimation [1.4502611532302039]
視覚に基づく3Dポーズ推定は、固定位置に配置されない可能性のあるオブジェクトを正確に扱う必要がある。
本稿では,勾配近似粒子フィルタを用いた3次元ポーズ推定手法を提案する。
これにより、タスク実行中にこの手法をオンラインに適用して、貴重なサイクル時間を節約することができる。
論文 参考訳(メタデータ) (2020-10-02T07:48:17Z) - I Like to Move It: 6D Pose Estimation as an Action Decision Process [53.63776807432945]
オブジェクトのポーズ推定は、ロボットビジョンとARの不可欠な部分である。
以前の6Dポーズ検索パイプラインは、問題を回帰タスクとして扱うか、または、ポーズ空間を識別して分類する。
我々はこのパラダイムを変更し、初期ポーズを段階的に離散的に更新するアクション決定プロセスとして問題を再構築する。
ニューラルネットワークが推定すると、単一のRGBイメージから反復的に移動し、許容できる最終ポーズを決定する。
論文 参考訳(メタデータ) (2020-09-26T20:05:42Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。