論文の概要: StereoPose: Category-Level 6D Transparent Object Pose Estimation from
Stereo Images via Back-View NOCS
- arxiv url: http://arxiv.org/abs/2211.01644v1
- Date: Thu, 3 Nov 2022 08:36:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 12:05:28.573972
- Title: StereoPose: Category-Level 6D Transparent Object Pose Estimation from
Stereo Images via Back-View NOCS
- Title(参考訳): StereoPose: バックビューNOCSによるステレオ画像からのカテゴリーレベル6次元透明物体位置推定
- Authors: Kai Chen, Stephen James, Congying Sui, Yun-Hui Liu, Pieter Abbeel, Qi
Dou
- Abstract要約: 本稿では,カテゴリレベルのオブジェクトポーズ推定のためのステレオ画像フレームワークであるStereoPoseを紹介する。
純粋なステレオ画像からロバストな推定を行うため、カテゴリレベルのポーズ推定をオブジェクトサイズ推定、初期ポーズ推定、ポーズ修正に分解するパイプラインを開発する。
画像コンテンツエイリアス化の問題に対処するために、透明なオブジェクトに対するバックビューNOCSマップを定義する。
バックビューNOCSは、コンテンツエイリアスによるネットワーク学習のあいまいさを低減し、透明オブジェクトの背面にある情報的手がかりを利用してより正確なポーズ推定を行うことを目的としている。
- 参考スコア(独自算出の注目度): 106.62225866064313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing methods for category-level pose estimation rely on object point
clouds. However, when considering transparent objects, depth cameras are
usually not able to capture meaningful data, resulting in point clouds with
severe artifacts. Without a high-quality point cloud, existing methods are not
applicable to challenging transparent objects. To tackle this problem, we
present StereoPose, a novel stereo image framework for category-level object
pose estimation, ideally suited for transparent objects. For a robust
estimation from pure stereo images, we develop a pipeline that decouples
category-level pose estimation into object size estimation, initial pose
estimation, and pose refinement. StereoPose then estimates object pose based on
representation in the normalized object coordinate space~(NOCS). To address the
issue of image content aliasing, we further define a back-view NOCS map for the
transparent object. The back-view NOCS aims to reduce the network learning
ambiguity caused by content aliasing, and leverage informative cues on the back
of the transparent object for more accurate pose estimation. To further improve
the performance of the stereo framework, StereoPose is equipped with a parallax
attention module for stereo feature fusion and an epipolar loss for improving
the stereo-view consistency of network predictions. Extensive experiments on
the public TOD dataset demonstrate the superiority of the proposed StereoPose
framework for category-level 6D transparent object pose estimation.
- Abstract(参考訳): 既存のカテゴリレベルのポーズ推定手法のほとんどは、オブジェクトポイントクラウドに依存している。
しかし、透明な物体を考えると、深度カメラは通常、意味のあるデータをキャプチャできないため、重大なアーティファクトを持つ点雲が発生する。
高品質のポイントクラウドがなければ、既存の手法は困難な透明なオブジェクトに適用できない。
そこで本研究では,透明な物体に理想的に適合する,カテゴリーレベルの物体ポーズ推定のためのステレオ画像フレームワークであるステレオポッセを提案する。
純粋なステレオ画像からロバストな推定を行うために,カテゴリレベルのポーズ推定をオブジェクトサイズ推定,初期ポーズ推定,ポーズリファインメントに分解するパイプラインを開発した。
StereoPose は正規化されたオブジェクト座標空間~(NOCS)の表現に基づいてオブジェクトのポーズを推定する。
画像コンテンツエイリアス化の問題に対処するため、透明なオブジェクトに対するバックビューNOCSマップをさらに定義する。
バックビューNOCSは、コンテンツエイリアスによるネットワーク学習のあいまいさを低減し、透明オブジェクトの背面にある情報的手がかりを利用してより正確なポーズ推定を行うことを目的としている。
ステレオフレームワークの性能をさらに向上するため、ステレオ機能融合のためのパララックスアテンションモジュールと、ネットワーク予測のステレオビュー整合性を改善するためのエピポーラロスを備える。
パブリックなtodデータセットに関する広範な実験は、カテゴリレベルの6d透明オブジェクトポーズ推定のためのステレオポスフレームワークの優位性を示している。
関連論文リスト
- Extending 6D Object Pose Estimators for Stereo Vision [4.818865062632567]
我々は6次元オブジェクトポーズ推定のためのYCB-VデータセットのBOP互換ステレオバージョンを作成する。
本手法はステレオビジョンを利用して最先端の6Dポーズ推定アルゴリズムより優れており,他の高密度特徴ベースアルゴリズムにも容易に適用できる。
論文 参考訳(メタデータ) (2024-02-08T12:08:52Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - MV-ROPE: Multi-view Constraints for Robust Category-level Object Pose and Size Estimation [23.615122326731115]
本稿では,RGBビデオストリームを利用した新しいソリューションを提案する。
本フレームワークは,スケール対応単分子高密度SLAMソリューション,軽量オブジェクトポーズ予測器,オブジェクトレベルのポーズグラフの3つのモジュールから構成される。
提案手法は,高精細度情報を用いた公開データセットを用いた場合,最先端のRGB-D手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-08-17T08:29:54Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - PhoCaL: A Multi-Modal Dataset for Category-Level Object Pose Estimation
with Photometrically Challenging Objects [45.31344700263873]
我々は、PhoCaLと呼ばれる光度に挑戦するオブジェクトを用いたカテゴリレベルのオブジェクトポーズ推定のためのマルチモーダルデータセットを提案する。
PhoCaLは、高い反射率、透明度、対称度を含む8種類以上の家庭用品の60種類の高品質な3Dモデルで構成されている。
これにより、不透明で光沢のある透明な物体のポーズのサブミリ秒精度が保証され、動きのぼやけも無く、カメラの同期も完璧になる。
論文 参考訳(メタデータ) (2022-05-18T09:21:09Z) - Next-Best-View Prediction for Active Stereo Cameras and Highly
Reflective Objects [12.21992378133376]
反射物体の深度データを完成させるためのカメラ視点を戦略的に選択する次世代ビューフレームワークを提案する。
我々は既存のデータから現在のポーズ予測を得るためにRGBベースのポーズ推定器を用いる。
我々の能動深度取得法は,2つの強いベースラインを上回り,深度完成度とオブジェクトポーズ推定性能を両立させる。
論文 参考訳(メタデータ) (2022-02-27T01:48:02Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。