論文の概要: DProST: 6-DoF Object Pose Estimation Using Space Carving and Dynamic
Projective Spatial Transformer
- arxiv url: http://arxiv.org/abs/2112.08775v1
- Date: Thu, 16 Dec 2021 10:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 15:50:02.873314
- Title: DProST: 6-DoF Object Pose Estimation Using Space Carving and Dynamic
Projective Spatial Transformer
- Title(参考訳): DProST:空間彫刻と動的射影空間変換器を用いた6自由度物体位置推定
- Authors: Jaewoo Park, Nam Ik Cho
- Abstract要約: 深層学習に基づくポーズ推定手法はCADデータに3D中間表現やプロジェクト2Dの外観を利用する必要がある。
本稿では,CADデータを置き換えるために,参照3次元特徴を再構成する空間彫刻モジュールからなる新しいポーズ推定システムを提案する。
また,2方向Zバッファリング(BiZバッファ)法により,物体の正面視と自己閉塞バックビューの両方を抽出し,自己閉塞問題を克服する。
- 参考スコア(独自算出の注目度): 20.291172201922084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting the pose of an object is a core computer vision task. Most deep
learning-based pose estimation methods require CAD data to use 3D intermediate
representations or project 2D appearance. However, these methods cannot be used
when CAD data for objects of interest are unavailable. Besides, the existing
methods did not precisely reflect the perspective distortion to the learning
process. In addition, information loss due to self-occlusion has not been
studied well. In this regard, we propose a new pose estimation system
consisting of a space carving module that reconstructs a reference 3D feature
to replace the CAD data. Moreover, Our new transformation module, Dynamic
Projective Spatial Transformer (DProST), transforms a reference 3D feature to
reflect the pose while considering perspective distortion. Also, we overcome
the self-occlusion problem by a new Bidirectional Z-buffering (BiZ-buffer)
method, which extracts both the front view and the self-occluded back view of
the object. Lastly, we suggest a Perspective Grid Distance Loss (PGDL),
enabling stable learning of the pose estimator without CAD data. Experimental
results show that our method outperforms the state-of-the-art method on the
LINEMOD dataset and comparable performance on LINEMOD-OCCLUSION dataset even
compared to the methods that require CAD data in network training.
- Abstract(参考訳): オブジェクトのポーズを予測することは、コアコンピュータビジョンタスクである。
深層学習に基づくポーズ推定手法はCADデータに3D中間表現やプロジェクト2Dの外観を利用する必要がある。
しかし、興味のあるオブジェクトのcadデータが利用できない場合、これらの手法は使用できない。
さらに,既存の手法は視点歪みを学習過程に正確に反映しなかった。
また, 自己閉塞による情報損失は十分に研究されていない。
本稿では,CADデータを置き換えるために,参照3次元特徴を再構成する空間彫刻モジュールからなる新しいポーズ推定システムを提案する。
さらに,新しい変換モジュールであるdynamic projective spatial transformer (dprost) は,視点歪みを考慮した姿勢を反映する参照3次元特徴を変換する。
また,2方向Zバッファリング(BiZバッファ)法により,物体の正面視と自己閉塞バックビューの両方を抽出し,自己閉塞問題を克服する。
最後に、CADデータなしでポーズ推定器を安定的に学習できるパースペクティブグリッド距離損失(PGDL)を提案する。
実験の結果,本手法は,ネットワークトレーニングにおいてCADデータを必要とする手法と比較して,LINEMODデータセットの最先端手法とLINEMOD-OCCLUSIONデータセットの同等性能に優れていた。
関連論文リスト
- Object Gaussian for Monocular 6D Pose Estimation from Sparse Views [4.290993205307184]
ガウス的手法を用いたスパースビューオブジェクトポーズ推定のための新しいフレームワークであるSGPoseを紹介する。
最大10ビューを与えられたSGPoseは、ランダムな立方体から始めることで幾何学的認識表現を生成する。
典型的なベンチマーク、特にOcclusion LM-Oデータセットの実験では、SGPoseはスパースビューの制約下であっても既存のメソッドよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-09-04T10:03:11Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - PlankAssembly: Robust 3D Reconstruction from Three Orthographic Views
with Learnt Shape Programs [24.09764733540401]
本研究では、3つの正書法からの2次元線図を3次元CADモデルに自動変換する手法を開発した。
我々はトランスフォーマーに基づくシーケンス生成モデルにおける注意機構を利用して、入力と出力の間の柔軟なマッピングを学習する。
提案手法は,入力がノイズや不完全である場合,既存の手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2023-08-10T17:59:34Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Parametric Depth Based Feature Representation Learning for Object
Detection and Segmentation in Bird's Eye View [44.78243406441798]
本稿では,このような特徴変換をモデル化するために,深度などの幾何学的情報を活用することに焦点を当てる。
まず2次元画像の特徴を,各ビューの画素ごとのパラメトリック深度分布を予測して,エゴ車に定義された3次元空間に引き上げる。
次に、深度からBEVフレームへの3次元空間占有度に基づいて、3次元特徴体積を集約する。
論文 参考訳(メタデータ) (2023-07-09T06:07:22Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Self-supervised Wide Baseline Visual Servoing via 3D Equivariance [35.93323183558956]
本稿では,広視野ベースライン画像に対する自己教師付き視覚サーボ手法を提案する。
絶対カメラがオブジェクトに対して作用する既存のアプローチでは、オブジェクトの3D地上真理データが必要である。
平均誤差が35%以上減少し,90%以上の成功率と3cmの誤差耐性が得られた。
論文 参考訳(メタデータ) (2022-09-12T17:38:26Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。