論文の概要: Towards Self-Supervised Category-Level Object Pose and Size Estimation
- arxiv url: http://arxiv.org/abs/2203.02884v1
- Date: Sun, 6 Mar 2022 06:02:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 17:44:52.637396
- Title: Towards Self-Supervised Category-Level Object Pose and Size Estimation
- Title(参考訳): 自己監督型カテゴリーレベルオブジェクトマップとサイズ推定に向けて
- Authors: Yisheng He, Haoqiang Fan, Haibin Huang, Qifeng Chen, Jian Sun
- Abstract要約: 本研究は,一深度画像からのカテゴリレベルのオブジェクトポーズとサイズ推定のための自己教師型フレームワークを提案する。
我々は、同じ形状の点雲における幾何学的整合性を利用して自己超越する。
- 参考スコア(独自算出の注目度): 121.28537953301951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents a self-supervised framework for category-level object pose
and size estimation from a single depth image. Unlike previous works that rely
on time-consuming and labor-intensive ground truth pose labels for supervision,
we leverage the geometric consistency residing in point clouds of the same
shape for self-supervision. Specifically, given a normalized category template
mesh in the object-coordinate system and the partially observed object instance
in the scene, our key idea is to apply differentiable shape deformation,
registration, and rendering to enforce geometric consistency between the
predicted and the observed scene object point cloud. We evaluate our approach
on real-world datasets and find that our approach outperforms the simple
traditional baseline by large margins while being competitive with some
fully-supervised approaches.
- Abstract(参考訳): 本研究では,一深度画像からカテゴリレベルのオブジェクトポーズとサイズ推定を行う自己教師型フレームワークを提案する。
時間と労働集約的な真実に依存する以前の研究と異なり、我々は同じ形状の点雲に存在する幾何的整合性を利用して自己監督を行う。
具体的には、対象座標系における正規化カテゴリテンプレートメッシュとシーン内の部分的に観測されたオブジェクトインスタンスを与えられた場合、予測と観測されたシーンオブジェクトポイントクラウド間の幾何学的一貫性を強制するために、微分可能な形状変形、登録、レンダリングを適用することが重要となる。
実世界のデータセットに対する我々のアプローチを評価し、我々のアプローチが、完全な教師付きアプローチと競合しながら、従来の単純なベースラインを大きなマージンで上回っていることを見出します。
関連論文リスト
- OP-Align: Object-level and Part-level Alignment for Self-supervised Category-level Articulated Object Pose Estimation [7.022004731560844]
カテゴリーレベルの調音オブジェクトのポーズ推定は、既知のカテゴリ内の未知の調音オブジェクトのポーズ推定に焦点を当てる。
本稿では,この課題を解決するために,単一フレームの点群を利用した新たな自己教師型アプローチを提案する。
我々のモデルは、入力対象全体に対する標準ポーズとジョイントステートを連続的に生成する。
論文 参考訳(メタデータ) (2024-08-29T14:10:14Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Diffusion-Driven Self-Supervised Learning for Shape Reconstruction and Pose Estimation [26.982199143972835]
本稿では,多目的形状再構成とカテゴリー的ポーズ推定のための拡散駆動型自己教師ネットワークを提案する。
提案手法は,最先端の自己監督型カテゴリレベルのベースラインを著しく上回り,完全教師型インスタンスレベルのメソッドやカテゴリレベルのメソッドをはるかに上回っている。
論文 参考訳(メタデータ) (2024-03-19T13:43:27Z) - GenPose: Generative Category-level Object Pose Estimation via Diffusion
Models [5.1998359768382905]
カテゴリーレベルのオブジェクトポーズ推定を条件付き生成モデルとして再検討することで,新しい解を提案する。
提案手法は,厳密な5d2cmおよび5d5cmの計測値に対して50%と60%を越え,REAL275データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-18T11:45:42Z) - Generative Category-Level Shape and Pose Estimation with Semantic
Primitives [27.692997522812615]
本稿では,1枚のRGB-D画像からカテゴリレベルのオブジェクト形状とポーズ推定を行う新しいフレームワークを提案する。
カテゴリ内変動に対処するために、様々な形状を統一された潜在空間にエンコードするセマンティックプリミティブ表現を採用する。
提案手法は,実世界のデータセットにおいて,SOTAのポーズ推定性能とより優れた一般化を実現する。
論文 参考訳(メタデータ) (2022-10-03T17:51:54Z) - CATRE: Iterative Point Clouds Alignment for Category-level Object Pose
Refinement [52.41884119329864]
カテゴリーレベルのオブジェクトポーズとサイズ精細化器 CATRE は、点雲からのポーズ推定を反復的に強化し、正確な結果が得られる。
提案手法は,REAL275,CAMERA25,LMのベンチマークを85.32Hzまで高速化する。
論文 参考訳(メタデータ) (2022-07-17T05:55:00Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。