論文の概要: PoseContrast: Class-Agnostic Object Viewpoint Estimation in the Wild
with Pose-Aware Contrastive Learning
- arxiv url: http://arxiv.org/abs/2105.05643v1
- Date: Wed, 12 May 2021 13:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:20:53.627168
- Title: PoseContrast: Class-Agnostic Object Viewpoint Estimation in the Wild
with Pose-Aware Contrastive Learning
- Title(参考訳): PoseContrast: Pose-Aware Contrastive Learningを用いた野生におけるクラス非依存的オブジェクト視点推定
- Authors: Yang Xiao, Yuming Du, Renaud Marlet
- Abstract要約: 3次元形状の知識を持たず,クラス非依存な3次元物体ポーズ推定の課題を考察する。
このアイデアは、目に見えないクラスのポーズを推定するために、観測されたクラスで学んだ機能を利用していますが、同様のジオメトリと正規フレームを観測されたクラスと共有します。
追加形状情報を使用する方法や検出された境界ボックスを使用する場合を含め,最先端の結果を報告する。
- 参考スコア(独自算出の注目度): 23.608940131120637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by the need of estimating the pose (viewpoint) of arbitrary objects
in the wild, which is only covered by scarce and small datasets, we consider
the challenging problem of class-agnostic 3D object pose estimation, with no 3D
shape knowledge. The idea is to leverage features learned on seen classes to
estimate the pose for classes that are unseen, yet that share similar
geometries and canonical frames with seen classes. For this, we train a direct
pose estimator in a class-agnostic way by sharing weights across all object
classes, and we introduce a contrastive learning method that has three main
ingredients: (i) the use of pre-trained, self-supervised, contrast-based
features; (ii) pose-aware data augmentations; (iii) a pose-aware contrastive
loss. We experimented on Pascal3D+ and ObjectNet3D, as well as Pix3D in a
cross-dataset fashion, with both seen and unseen classes. We report
state-of-the-art results, including against methods that use additional shape
information, and also when we use detected bounding boxes.
- Abstract(参考訳): 野生の任意の物体のポーズ(視点)を推定することの必要性に動機づけられ, 希少なデータセットと小さなデータセットのみをカバーし, 3次元形状の知識を持たない, クラス非依存な3次元物体ポーズ推定の課題を考察する。
このアイデアは、見掛けられたクラスで学んだ機能を活用して、目に見えないクラスのポーズを見積もることを目的としているが、同じようなジオメトリや標準フレームを見掛けられたクラスと共有する。
そこで我々は,すべての対象クラスに重みを共有することで,クラス非依存の直接ポーズ推定器を訓練し,(i)事前訓練,自己監督,コントラストに基づく特徴の利用,(ii)ポーズ対応データ拡張,(iii)ポーズ対応コントラスト損失の3つの主要な要素を有するコントラスト学習手法を導入する。
我々は、pascal3d+とobjectnet3d、およびpix3dをクロスデータセットで実験した。
追加形状情報を使用する方法や検出された境界ボックスを使用する場合を含め,最先端の結果を報告する。
関連論文リスト
- Unsupervised Learning of Category-Level 3D Pose from Object-Centric Videos [15.532504015622159]
カテゴリーレベルの3Dポーズ推定は、コンピュータビジョンとロボット工学において基本的に重要な問題である。
カテゴリーレベルの3Dポーズを,カジュアルに撮られた対象中心の動画からのみ推定する学習の課題に取り組む。
論文 参考訳(メタデータ) (2024-07-05T09:43:05Z) - Learning a Category-level Object Pose Estimator without Pose Annotations [37.03715008347576]
ポーズアノテーションを使わずにカテゴリレベルの3Dオブジェクトのポーズ推定を学習することを提案する。
手動でアノテートされた画像を使用する代わりに、拡散モデルを利用して、制御されたポーズ差の下で一連の画像を生成する。
提案手法は,単一ショット設定からカテゴリレベルのオブジェクトポーズ推定を行う能力を有することを示す。
論文 参考訳(メタデータ) (2024-04-08T15:59:29Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Understanding Pose and Appearance Disentanglement in 3D Human Pose
Estimation [72.50214227616728]
ポーズ情報から外見情報を引き離すために,自己教師型で画像表現を学習する手法がいくつか提案されている。
我々は,多種多様な画像合成実験を通じて,自己教師ネットワークの観点から,ゆがみについて検討する。
我々は,対象の自然な外見変化を生起することに焦点を当てた敵対的戦略を設計し,その反対に,絡み合ったネットワークが堅牢であることを期待している。
論文 参考訳(メタデータ) (2023-09-20T22:22:21Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - 3D-Augmented Contrastive Knowledge Distillation for Image-based Object
Pose Estimation [4.415086501328683]
トレーニングプロセスでは3D形状が活用され、テストは依然として純粋に画像ベースである。
マルチモーダルモデルから画像ベースモデルへ3次元拡張画像表現を効果的に転送する新しいコントラスト型知識蒸留フレームワークを提案する。
我々は,既存のカテゴリに依存しない画像ベース手法と比較して,最先端の成果を大きなマージンで報告した。
論文 参考訳(メタデータ) (2022-06-02T16:46:18Z) - End-to-End Learning of Multi-category 3D Pose and Shape Estimation [128.881857704338]
本稿では,画像から2次元キーポイントを同時に検出し,それらを3次元に引き上げるエンド・ツー・エンド手法を提案する。
提案手法は2次元キーポイントアノテーションからのみ2次元検出と3次元リフトを学習する。
画像から3D学習へのエンドツーエンド化に加えて,1つのニューラルネットワークを用いて複数のカテゴリからのオブジェクトも処理する。
論文 参考訳(メタデータ) (2021-12-19T17:10:40Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - 3D Registration for Self-Occluded Objects in Context [66.41922513553367]
このシナリオを効果的に処理できる最初のディープラーニングフレームワークを紹介します。
提案手法はインスタンスセグメンテーションモジュールとポーズ推定モジュールから構成される。
これにより、高価な反復手順を必要とせず、ワンショットで3D登録を行うことができます。
論文 参考訳(メタデータ) (2020-11-23T08:05:28Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。