論文の概要: PoET: Pose Estimation Transformer for Single-View, Multi-Object 6D Pose
Estimation
- arxiv url: http://arxiv.org/abs/2211.14125v1
- Date: Fri, 25 Nov 2022 14:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 17:22:43.398060
- Title: PoET: Pose Estimation Transformer for Single-View, Multi-Object 6D Pose
Estimation
- Title(参考訳): PoET:シングルビュー・マルチオブジェクト6次元ポス推定用ポス推定変換器
- Authors: Thomas Jantos, Mohamed Amin Hamdad, Wolfgang Granig, Stephan Weiss,
Jan Steinbrener
- Abstract要約: 本稿では、RGB画像を入力とし、画像内の各オブジェクトに対する6Dポーズを予測するトランスフォーマーベースのアプローチを提案する。
画像のほかに、深度マップや3Dオブジェクトモデルなどの追加情報も不要です。
挑戦的なYCB-Vデータセットに対するRGBのみのアプローチの最先端結果を得る。
- 参考スコア(独自算出の注目度): 6.860183454947986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate 6D object pose estimation is an important task for a variety of
robotic applications such as grasping or localization. It is a challenging task
due to object symmetries, clutter and occlusion, but it becomes more
challenging when additional information, such as depth and 3D models, is not
provided. We present a transformer-based approach that takes an RGB image as
input and predicts a 6D pose for each object in the image. Besides the image,
our network does not require any additional information such as depth maps or
3D object models. First, the image is passed through an object detector to
generate feature maps and to detect objects. Then, the feature maps are fed
into a transformer with the detected bounding boxes as additional information.
Afterwards, the output object queries are processed by a separate translation
and rotation head. We achieve state-of-the-art results for RGB-only approaches
on the challenging YCB-V dataset. We illustrate the suitability of the
resulting model as pose sensor for a 6-DoF state estimation task. Code is
available at https://github.com/aau-cns/poet.
- Abstract(参考訳): 正確な6Dオブジェクトのポーズ推定は、把握やローカライゼーションといった様々なロボットアプリケーションにとって重要なタスクである。
物体の対称性やクラッタ,オクルージョンなどによる難題であるが,深度や3Dモデルなどの追加情報が提供されない場合には,さらに困難になる。
本稿では、RGB画像を入力とし、画像内の各オブジェクトに対する6Dポーズを予測するトランスフォーマーベースのアプローチを提案する。
画像に加えて、ネットワークは深度マップや3dオブジェクトモデルなどの追加情報を必要としない。
まず、画像はオブジェクト検出器を通過して特徴マップを生成し、オブジェクトを検出する。
そして、検出された境界ボックスを付加情報として、特徴マップを変圧器に供給する。
その後、出力オブジェクトクエリは、別個の翻訳および回転ヘッドによって処理される。
挑戦的なYCB-Vデータセットに対するRGBのみのアプローチの最先端結果を得る。
6-DoF状態推定タスクのポーズセンサとして,結果モデルの適合性を示す。
コードはhttps://github.com/aau-cns/poetで入手できる。
関連論文リスト
- RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - TransPose: A Transformer-based 6D Object Pose Estimation Network with
Depth Refinement [5.482532589225552]
深度修正モジュールを用いた改良型トランスフォーマーベースの6次元ポーズ推定法であるTransPoseを提案する。
アーキテクチャはRGB画像のみを入力として取り込むが、深度や熱画像などの追加の補正は行わない。
次に、予測された中心、6Dポーズ、および6Dポーズの精度を向上するために、新しい深度補正モジュールが使用される。
論文 参考訳(メタデータ) (2023-07-09T17:33:13Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - Pose Estimation of Specific Rigid Objects [0.7931904787652707]
本稿では,RGBまたはRGB-D入力画像から剛体物体の6次元ポーズを推定する問題に対処する。
この問題は、ロボット操作、拡張現実、自律運転など、多くの応用分野において非常に重要である。
論文 参考訳(メタデータ) (2021-12-30T14:36:47Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z) - L6DNet: Light 6 DoF Network for Robust and Precise Object Pose
Estimation with Small Datasets [0.0]
1枚のRGB-D画像から6つのDoFオブジェクトのポーズ推定を行う新しい手法を提案する。
データ駆動と幾何学という2段階のハイブリッドパイプラインを採用しています。
私たちのアプローチは最先端の手法よりも堅牢で正確です。
論文 参考訳(メタデータ) (2020-02-03T17:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。