論文の概要: Pose Proposal Critic: Robust Pose Refinement by Learning Reprojection
Errors
- arxiv url: http://arxiv.org/abs/2005.06262v2
- Date: Thu, 14 May 2020 10:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 13:16:11.164371
- Title: Pose Proposal Critic: Robust Pose Refinement by Learning Reprojection
Errors
- Title(参考訳): ポース提案批判:リジェクションエラー学習によるロバストなポースリファインメント
- Authors: Lucas Brynte and Fredrik Kahl
- Abstract要約: 我々は、ポーズの洗練に焦点をあて、部分閉塞の場合の最先端をどう進めるかを示す。
提案手法は,CNNを訓練し,観測画像と描画画像の間の再投影誤差を推定する簡易学習課題を利用する。
Occlusion LINEMODベンチマークの3つの指標のうち2つは、現在の最先端の結果よりも優れています。
- 参考スコア(独自算出の注目度): 17.918364675642998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, considerable progress has been made for the task of rigid
object pose estimation from a single RGB-image, but achieving robustness to
partial occlusions remains a challenging problem. Pose refinement via rendering
has shown promise in order to achieve improved results, in particular, when
data is scarce.
In this paper we focus our attention on pose refinement, and show how to push
the state-of-the-art further in the case of partial occlusions. The proposed
pose refinement method leverages on a simplified learning task, where a CNN is
trained to estimate the reprojection error between an observed and a rendered
image. We experiment by training on purely synthetic data as well as a mixture
of synthetic and real data. Current state-of-the-art results are outperformed
for two out of three metrics on the Occlusion LINEMOD benchmark, while
performing on-par for the final metric.
- Abstract(参考訳): 近年,単一のrgb画像からの剛体姿勢推定の課題がかなりの進歩を遂げているが,部分閉塞に対する頑健性の実現は依然として課題となっている。
レンダリングによるポースリファインメントは、特にデータが不足している場合に、改善された結果を達成するために有望であることを示している。
本稿では,ポーズの精密化に着目し,部分的咬合の場合の最先端を押し進め方を示す。
提案手法は,cnnを訓練し,観測画像とレンダリング画像間の再投影誤差を推定する簡易学習タスクに活用する。
我々は、純粋な合成データと、合成データと実データとの混合を訓練して実験する。
現在の最先端の結果はoctorion linemodベンチマークの3つの指標のうち2つで上回っており、最終測定値のオンパリットを実行している。
関連論文リスト
- PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - DeepRM: Deep Recurrent Matching for 6D Pose Refinement [77.34726150561087]
DeepRMは、6Dポーズ改善のための新しいリカレントネットワークアーキテクチャである。
アーキテクチャにはLSTMユニットが組み込まれ、各改善ステップを通じて情報を伝達する。
DeepRMは、2つの広く受け入れられている課題データセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-28T16:18:08Z) - RiCS: A 2D Self-Occlusion Map for Harmonizing Volumetric Objects [68.85305626324694]
カメラ空間における光マーチング (RiCS) は、3次元における前景物体の自己閉塞を2次元の自己閉塞マップに表現する新しい手法である。
表現マップは画像の質を高めるだけでなく,時間的コヒーレントな複雑な影効果をモデル化できることを示す。
論文 参考訳(メタデータ) (2022-05-14T05:35:35Z) - RNNPose: Recurrent 6-DoF Object Pose Refinement with Robust
Correspondence Field Estimation and Pose Optimization [46.144194562841435]
本稿では、オブジェクトポーズ改善のためのリカレントニューラルネットワーク(RNN)に基づくフレームワークを提案する。
この問題は、推定対応フィールドに基づいて非線形最小二乗問題として定式化される。
各イテレーションにおいて、対応フィールド推定とポーズ精錬を代替して行い、正確なオブジェクトポーズを復元する。
論文 参考訳(メタデータ) (2022-03-24T06:24:55Z) - Learning Skeletal Graph Neural Networks for Hard 3D Pose Estimation [14.413034040734477]
本稿では, 深度あいまいさ, 自己閉塞性, 複雑なポーズを有するハードポーズに対する新しい骨格型GNN学習ソリューションを提案する。
Human3.6Mデータセットの実験結果から, 平均予測精度が10.3%向上したことがわかった。
論文 参考訳(メタデータ) (2021-08-16T15:42:09Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - REDE: End-to-end Object 6D Pose Robust Estimation Using Differentiable
Outliers Elimination [15.736699709454857]
RGB-Dデータを用いた新しいエンドツーエンドオブジェクトポーズ推定器REDEを提案する。
また,候補結果と信頼度を同時に抑制する相違可能な外乱除去手法を提案する。
3つのベンチマークデータセットの実験結果は、REDEが最先端のアプローチをわずかに上回っていることを示している。
論文 参考訳(メタデータ) (2020-10-24T06:45:39Z) - Leveraging Photometric Consistency over Time for Sparsely Supervised
Hand-Object Reconstruction [118.21363599332493]
本稿では,ビデオ中のフレームの粗いサブセットに対してのみアノテーションが利用できる場合に,時間とともに光度整合性を活用する手法を提案する。
本モデルでは,ポーズを推定することにより,手や物体を3Dで共同で再構成するカラーイメージをエンドツーエンドに訓練する。
提案手法は,3次元手動画像再構成の精度向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-04-28T12:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。