論文の概要: Generalizable Pose Estimation Using Implicit Scene Representations
- arxiv url: http://arxiv.org/abs/2305.17252v1
- Date: Fri, 26 May 2023 20:42:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 21:03:07.533197
- Title: Generalizable Pose Estimation Using Implicit Scene Representations
- Title(参考訳): 暗黙のシーン表現を用いた一般化可能なポーズ推定
- Authors: Vaibhav Saxena, Kamal Rahimi Malekshan, Linh Tran, Yotto Koga
- Abstract要約: 6-DoFのポーズ推定は、ロボット操作パイプラインの重要なコンポーネントである。
本稿では,異なるポーズで表現できる十分な情報を含むモデルを用いたポーズ推定の一般化能力について論じる。
最終評価では,既存手法と比較して推論性能と速度が大幅に向上した。
- 参考スコア(独自算出の注目度): 4.124185654280966
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 6-DoF pose estimation is an essential component of robotic manipulation
pipelines. However, it usually suffers from a lack of generalization to new
instances and object types. Most widely used methods learn to infer the object
pose in a discriminative setup where the model filters useful information to
infer the exact pose of the object. While such methods offer accurate poses,
the model does not store enough information to generalize to new objects. In
this work, we address the generalization capability of pose estimation using
models that contain enough information about the object to render it in
different poses. We follow the line of work that inverts neural renderers to
infer the pose. We propose i-$\sigma$SRN to maximize the information flowing
from the input pose to the rendered scene and invert them to infer the pose
given an input image. Specifically, we extend Scene Representation Networks
(SRNs) by incorporating a separate network for density estimation and introduce
a new way of obtaining a weighted scene representation. We investigate several
ways of initial pose estimates and losses for the neural renderer. Our final
evaluation shows a significant improvement in inference performance and speed
compared to existing approaches.
- Abstract(参考訳): 6-dofポーズ推定は,ロボット操作パイプラインの重要な構成要素である。
しかし、通常は新しいインスタンスやオブジェクトタイプへの一般化の欠如に悩まされる。
最も広く使われている方法は、モデルがオブジェクトの正確なポーズを推測するために有用な情報をフィルタリングする識別的な設定でオブジェクトのポーズを推測することを学ぶ。
このような手法は正確なポーズを提供するが、モデルは新しいオブジェクトに一般化するのに十分な情報を格納しない。
本研究では,異なるポーズで描画するオブジェクトに関する情報を十分に含むモデルを用いて,ポーズ推定の一般化について述べる。
私たちは、ニューラルレンダラーを逆転させてポーズを推測する作業の行に従います。
そこで我々は,i-$\sigma$SRNを提案し,入力されたポーズから描画されたシーンに流れる情報を最大化し,入力されたポーズを推論する。
具体的には,密度推定のための別個のネットワークを組み込んでシーン表現ネットワーク(srns)を拡張し,重み付けされたシーン表現を得る新しい方法を導入する。
本稿では,ニューラルレンダラーの初期ポーズ推定と損失について検討する。
最終評価では,既存手法と比較して推論性能と速度が大幅に向上した。
関連論文リスト
- Learning a Category-level Object Pose Estimator without Pose Annotations [37.03715008347576]
ポーズアノテーションを使わずにカテゴリレベルの3Dオブジェクトのポーズ推定を学習することを提案する。
手動でアノテートされた画像を使用する代わりに、拡散モデルを利用して、制御されたポーズ差の下で一連の画像を生成する。
提案手法は,単一ショット設定からカテゴリレベルのオブジェクトポーズ推定を行う能力を有することを示す。
論文 参考訳(メタデータ) (2024-04-08T15:59:29Z) - DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - Few-View Object Reconstruction with Unknown Categories and Camera Poses [80.0820650171476]
この研究は、カメラのポーズやオブジェクトのカテゴリを知らない少数の画像から、一般的な現実世界のオブジェクトを再構築する。
私たちの研究の要点は、形状再構成とポーズ推定という、2つの基本的な3D視覚問題を解決することです。
提案手法は,各ビューから3次元特徴を予測し,それらを入力画像と組み合わせて活用し,クロスビュー対応を確立する。
論文 参考訳(メタデータ) (2022-12-08T18:59:02Z) - ZePHyR: Zero-shot Pose Hypothesis Rating [36.52070583343388]
本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T01:48:39Z) - DSC-PoseNet: Learning 6DoF Object Pose Estimation via Dual-scale
Consistency [43.09728251735362]
2Dオブジェクト境界ボックスから6DoFオブジェクトポーズを得るための2ステップポーズ推定フレームワークを提案する。
最初のステップでは、フレームワークはオブジェクトを実際のデータと合成データからセグメンテーションすることを学ぶ。
第2のステップでは,dsc-posenetという,デュアルスケールなポーズ推定ネットワークを設計する。
提案手法は,合成データに基づいて訓練した最先端のモデルよりも大きなマージンで優れる。
論文 参考訳(メタデータ) (2021-04-08T10:19:35Z) - Back to the Feature: Learning Robust Camera Localization from Pixels to
Pose [114.89389528198738]
画像と3Dモデルから正確な6-DoFのポーズを推定するシーンに依存しないニューラルネットワークPixLocを導入する。
このシステムは、粗いポーズ前の大きな環境でもローカライズできるが、スパース特徴マッチングの精度も向上する。
論文 参考訳(メタデータ) (2021-03-16T17:40:12Z) - I Like to Move It: 6D Pose Estimation as an Action Decision Process [53.63776807432945]
オブジェクトのポーズ推定は、ロボットビジョンとARの不可欠な部分である。
以前の6Dポーズ検索パイプラインは、問題を回帰タスクとして扱うか、または、ポーズ空間を識別して分類する。
我々はこのパラダイムを変更し、初期ポーズを段階的に離散的に更新するアクション決定プロセスとして問題を再構築する。
ニューラルネットワークが推定すると、単一のRGBイメージから反復的に移動し、許容できる最終ポーズを決定する。
論文 参考訳(メタデータ) (2020-09-26T20:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。