論文の概要: SporeAgent: Reinforced Scene-level Plausibility for Object Pose
Refinement
- arxiv url: http://arxiv.org/abs/2201.00239v1
- Date: Sat, 1 Jan 2022 20:26:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 14:20:21.575528
- Title: SporeAgent: Reinforced Scene-level Plausibility for Object Pose
Refinement
- Title(参考訳): SporeAgent: オブジェクト・ポース・リファインメントのための強化されたシーンレベルの可視性
- Authors: Dominik Bauer, Timothy Patten, Markus Vincze
- Abstract要約: 深度とRGBに基づくポーズ改善アプローチは、結果のポーズ推定の精度を高めるが、視覚的アライメントを考慮するとあいまいさの影響を受けやすい。
可視性を考慮するとあいまいさが減少し、その結果、乱雑な環境でより正確にポーズを予測できることが示される。
LINEMOD および YCB-VIDEO データセットを用いた実験により, 深度に基づく精錬手法の最先端性能が実証された。
- 参考スコア(独自算出の注目度): 28.244027792644097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Observational noise, inaccurate segmentation and ambiguity due to symmetry
and occlusion lead to inaccurate object pose estimates. While depth- and
RGB-based pose refinement approaches increase the accuracy of the resulting
pose estimates, they are susceptible to ambiguity in the observation as they
consider visual alignment. We propose to leverage the fact that we often
observe static, rigid scenes. Thus, the objects therein need to be under
physically plausible poses. We show that considering plausibility reduces
ambiguity and, in consequence, allows poses to be more accurately predicted in
cluttered environments. To this end, we extend a recent RL-based registration
approach towards iterative refinement of object poses. Experiments on the
LINEMOD and YCB-VIDEO datasets demonstrate the state-of-the-art performance of
our depth-based refinement approach.
- Abstract(参考訳): 対称性と閉塞による観測ノイズ、不正確なセグメンテーション、曖昧さは、不正確なオブジェクトのポーズ推定につながる。
深度とRGBに基づくポーズ改善アプローチは、結果のポーズ推定の精度を高めるが、視覚的アライメントを考慮すると、観察のあいまいさの影響を受けやすい。
静的で厳格なシーンをよく観察するという事実を活用することを提案する。
したがって、対象物は物理的に妥当なポーズでなければならない。
確率を考えるとあいまいさが減少し、その結果、乱雑な環境でより正確にポーズを予測できることが示される。
この目的のために、RLに基づく最近の登録手法をオブジェクトポーズの反復的洗練に向けて拡張する。
LINEMOD および YCB-VIDEO データセットを用いた実験により, 深度に基づく精錬手法の最先端性能が実証された。
関連論文リスト
- DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - 3D-Aware Hypothesis & Verification for Generalizable Relative Object
Pose Estimation [69.73691477825079]
一般化可能なオブジェクトポーズ推定の問題に対処する新しい仮説検証フレームワークを提案する。
信頼性を計測するために,2つの入力画像から学習した3次元オブジェクト表現に3次元変換を明示的に適用する3D認識検証を導入する。
論文 参考訳(メタデータ) (2023-10-05T13:34:07Z) - Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation [17.440729138126162]
あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
論文 参考訳(メタデータ) (2022-11-02T08:57:20Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - RNNPose: Recurrent 6-DoF Object Pose Refinement with Robust
Correspondence Field Estimation and Pose Optimization [46.144194562841435]
本稿では、オブジェクトポーズ改善のためのリカレントニューラルネットワーク(RNN)に基づくフレームワークを提案する。
この問題は、推定対応フィールドに基づいて非線形最小二乗問題として定式化される。
各イテレーションにおいて、対応フィールド推定とポーズ精錬を代替して行い、正確なオブジェクトポーズを復元する。
論文 参考訳(メタデータ) (2022-03-24T06:24:55Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - DSC-PoseNet: Learning 6DoF Object Pose Estimation via Dual-scale
Consistency [43.09728251735362]
2Dオブジェクト境界ボックスから6DoFオブジェクトポーズを得るための2ステップポーズ推定フレームワークを提案する。
最初のステップでは、フレームワークはオブジェクトを実際のデータと合成データからセグメンテーションすることを学ぶ。
第2のステップでは,dsc-posenetという,デュアルスケールなポーズ推定ネットワークを設計する。
提案手法は,合成データに基づいて訓練した最先端のモデルよりも大きなマージンで優れる。
論文 参考訳(メタデータ) (2021-04-08T10:19:35Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Robust RGB-based 6-DoF Pose Estimation without Real Pose Annotations [92.5075742765229]
そこで本研究では,実際のポーズアノテーションを使わずに,課題条件下での6-DoFのポーズを頑健かつ正確に推定する手法を提案する。
LINEMOD と OccludedLINEMOD を実地設定なしで実現し、Occluded-LINEMOD のトレーニング中に実際のアノテーションに依存する方法よりも優れています。
論文 参考訳(メタデータ) (2020-08-19T12:07:01Z) - Pose Proposal Critic: Robust Pose Refinement by Learning Reprojection
Errors [17.918364675642998]
我々は、ポーズの洗練に焦点をあて、部分閉塞の場合の最先端をどう進めるかを示す。
提案手法は,CNNを訓練し,観測画像と描画画像の間の再投影誤差を推定する簡易学習課題を利用する。
Occlusion LINEMODベンチマークの3つの指標のうち2つは、現在の最先端の結果よりも優れています。
論文 参考訳(メタデータ) (2020-05-13T11:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。