論文の概要: DSC-PoseNet: Learning 6DoF Object Pose Estimation via Dual-scale
Consistency
- arxiv url: http://arxiv.org/abs/2104.03658v1
- Date: Thu, 8 Apr 2021 10:19:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:05:47.901438
- Title: DSC-PoseNet: Learning 6DoF Object Pose Estimation via Dual-scale
Consistency
- Title(参考訳): DSC-PoseNet:Dual-scale Consistencyによる6DoFオブジェクトポス推定学習
- Authors: Zongxin Yang, Xin Yu, Yi Yang
- Abstract要約: 2Dオブジェクト境界ボックスから6DoFオブジェクトポーズを得るための2ステップポーズ推定フレームワークを提案する。
最初のステップでは、フレームワークはオブジェクトを実際のデータと合成データからセグメンテーションすることを学ぶ。
第2のステップでは,dsc-posenetという,デュアルスケールなポーズ推定ネットワークを設計する。
提案手法は,合成データに基づいて訓練した最先端のモデルよりも大きなマージンで優れる。
- 参考スコア(独自算出の注目度): 43.09728251735362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared to 2D object bounding-box labeling, it is very difficult for humans
to annotate 3D object poses, especially when depth images of scenes are
unavailable. This paper investigates whether we can estimate the object poses
effectively when only RGB images and 2D object annotations are given. To this
end, we present a two-step pose estimation framework to attain 6DoF object
poses from 2D object bounding-boxes. In the first step, the framework learns to
segment objects from real and synthetic data in a weakly-supervised fashion,
and the segmentation masks will act as a prior for pose estimation. In the
second step, we design a dual-scale pose estimation network, namely
DSC-PoseNet, to predict object poses by employing a differential renderer. To
be specific, our DSC-PoseNet firstly predicts object poses in the original
image scale by comparing the segmentation masks and the rendered visible object
masks. Then, we resize object regions to a fixed scale to estimate poses once
again. In this fashion, we eliminate large scale variations and focus on
rotation estimation, thus facilitating pose estimation. Moreover, we exploit
the initial pose estimation to generate pseudo ground-truth to train our
DSC-PoseNet in a self-supervised manner. The estimation results in these two
scales are ensembled as our final pose estimation. Extensive experiments on
widely-used benchmarks demonstrate that our method outperforms state-of-the-art
models trained on synthetic data by a large margin and even is on par with
several fully-supervised methods.
- Abstract(参考訳): 2Dオブジェクトバウンディングボックスラベリングと比較して、特にシーンの奥行き画像が利用できない場合、人間が3Dオブジェクトのポーズをアノテートすることは極めて困難である。
本稿では,RGB画像と2次元オブジェクトアノテーションのみを付与した場合に,オブジェクトのポーズを効果的に推定できるかどうかを検討する。
そこで本稿では,2dオブジェクトバウンディングボックスから6dofオブジェクトのポーズを得るための2段階ポーズ推定フレームワークを提案する。
最初のステップでは、フレームワークは、オブジェクトを実データや合成データから弱い教師付きで分割することを学び、セグメンテーションマスクはポーズ推定の先行として機能する。
第2のステップでは,dsc-posenetと呼ばれる2次元ポーズ推定ネットワークを設計し,差分レンダラを用いて物体のポーズを予測する。
具体的に言うと、DSC-PoseNetはまず、セグメンテーションマスクと可視化されたオブジェクトマスクを比較して、元の画像スケールでオブジェクトのポーズを予測する。
そして、再びポーズを見積もるために、オブジェクト領域を一定のスケールにリサイズします。
この方法では, 大規模変動を排除し, 回転推定に焦点を合わせ, ポーズ推定を容易にする。
さらに,初期ポーズ推定を用いて疑似接地真実を生成し,自己教師あり方式でdsc-posenetを訓練する。
これら2つの尺度における推定結果は、最終ポーズ推定としてまとめられる。
広範に使用されているベンチマーク実験により, 提案手法は, 合成データ上で訓練された最先端モデルよりも高い性能を示し, 完全教師付き手法と同等であることがわかった。
関連論文リスト
- DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - Extreme Two-View Geometry From Object Poses with Diffusion Models [21.16779160086591]
オブジェクト先行のパワーを利用して、極端な視点変化に直面した2次元幾何学を正確に決定する。
実験では, 大局的な視点変化に対して, 突如として頑健さと弾力性を示した。
論文 参考訳(メタデータ) (2024-02-05T08:18:47Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - ZS6D: Zero-shot 6D Object Pose Estimation using Vision Transformers [9.899633398596672]
ゼロショット新規オブジェクト6Dのポーズ推定にZS6Dを導入する。
事前訓練された視覚変換器(ViT)を用いて抽出された視覚ディスクリプタは、レンダリングテンプレートのマッチングに使用される。
LMO、YCBV、TLESSデータセットで実験が行われる。
論文 参考訳(メタデータ) (2023-09-21T11:53:01Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - ObPose: Leveraging Pose for Object-Centric Scene Inference and
Generation in 3D [21.700203922407496]
ObPoseは教師なしのオブジェクト中心の推論と生成モデルである。
RGB-Dシーンから3D構造化された潜在表現を学習する。
ObPoseは、YCB、MultiShapeNet、CLEVRデータセットで定量的に評価される。
論文 参考訳(メタデータ) (2022-06-07T21:15:18Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - CosyPose: Consistent multi-view multi-object 6D pose estimation [48.097599674329004]
単視点単体6次元ポーズ推定法を提案し、6次元オブジェクトのポーズ仮説を生成する。
第2に、異なる入力画像間で個々の6次元オブジェクトのポーズをマッチングするロバストな手法を開発する。
第3に、複数のオブジェクト仮説とそれらの対応性を考慮したグローバルなシーン改善手法を開発した。
論文 参考訳(メタデータ) (2020-08-19T14:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。