論文の概要: 6D Object Pose Regression via Supervised Learning on Point Clouds
- arxiv url: http://arxiv.org/abs/2001.08942v1
- Date: Fri, 24 Jan 2020 10:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 05:16:11.394963
- Title: 6D Object Pose Regression via Supervised Learning on Point Clouds
- Title(参考訳): 点雲上の教師付き学習による6次元オブジェクトポス回帰
- Authors: Ge Gao, Mikko Lauri, Yulong Wang, Xiaolin Hu, Jianwei Zhang and Simone
Frintrop
- Abstract要約: 本稿では,点雲で表される深度情報から,既知の3次元物体の6自由度ポーズを推定する作業について述べる。
我々は、深度ネットワークと幾何学に基づくポーズ改善の両方への入力として、点雲で表される深度情報を用いる。
我々の単純で効果的なアプローチは、YCB-ビデオデータセットにおける最先端の手法よりも明らかに優れています。
- 参考スコア(独自算出の注目度): 42.21181542960924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the task of estimating the 6 degrees of freedom pose of
a known 3D object from depth information represented by a point cloud. Deep
features learned by convolutional neural networks from color information have
been the dominant features to be used for inferring object poses, while depth
information receives much less attention. However, depth information contains
rich geometric information of the object shape, which is important for
inferring the object pose. We use depth information represented by point clouds
as the input to both deep networks and geometry-based pose refinement and use
separate networks for rotation and translation regression. We argue that the
axis-angle representation is a suitable rotation representation for deep
learning, and use a geodesic loss function for rotation regression. Ablation
studies show that these design choices outperform alternatives such as the
quaternion representation and L2 loss, or regressing translation and rotation
with the same network. Our simple yet effective approach clearly outperforms
state-of-the-art methods on the YCB-video dataset. The implementation and
trained model are avaliable at: https://github.com/GeeeG/CloudPose.
- Abstract(参考訳): 本稿では,点雲で表される深度情報から,既知の3次元物体の6自由度ポーズを推定する作業について述べる。
色情報から畳み込みニューラルネットワークによって学習された深い特徴は、オブジェクトのポーズを推測するのに使用される主要な特徴である。
しかし、深度情報には、オブジェクトのポーズを推測する上で重要な、オブジェクト形状の豊富な幾何学的情報が含まれている。
我々は、深度ネットワークと幾何ベースのポーズ改善の両方への入力として、点雲で表される深度情報を使用し、回転と翻訳の回帰のために別々のネットワークを使用する。
我々は、軸角表現が深層学習に適した回転表現であり、測地損失関数を回転回帰に用いていると論じる。
アブレーション研究は、これらの設計選択が四元数表現やl2損失、または同じネットワークで翻訳と回転を後退させるような代替案よりも優れていることを示している。
我々の単純で効果的なアプローチは、YCBビデオデータセットの最先端手法よりも明らかに優れている。
実装とトレーニングされたモデルは、次のように評価可能である。
関連論文リスト
- Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - Point Discriminative Learning for Unsupervised Representation Learning
on 3D Point Clouds [54.31515001741987]
3次元点雲上での教師なし表現学習のための点識別学習法を提案する。
我々は、中間レベルとグローバルレベルの特徴に新しい点識別損失を課すことにより、これを達成した。
提案手法は強力な表現を学習し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-04T15:11:48Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - RfD-Net: Point Scene Understanding by Semantic Instance Reconstruction [19.535169371240073]
本稿では,高密度物体表面を直接点雲から検出・再構成するRfD-Netを提案する。
インスタンス再構成を大域的オブジェクトローカライゼーションと局所形状予測に分離する。
我々のアプローチは、オブジェクト再構成において、最先端の技術を一貫して上回り、メッシュIoUの11以上を改善します。
論文 参考訳(メタデータ) (2020-11-30T12:58:05Z) - DmifNet:3D Shape Reconstruction Based on Dynamic Multi-Branch
Information Fusion [14.585272577456472]
シングルビュー画像からの3Dオブジェクトの再構築は、長年の課題である。
複雑なトポロジーで3次元形状を正確に再構築することは, それまでの作業では困難であった。
2次元画像から任意の位相の高忠実度3次元形状を復元できる動的マルチブランチ情報融合ネットワーク(DmifNet)を提案する。
論文 参考訳(メタデータ) (2020-11-21T11:31:27Z) - Deep Positional and Relational Feature Learning for Rotation-Invariant
Point Cloud Analysis [107.9979381402172]
点雲解析のための回転不変深層ネットワークを提案する。
ネットワークは階層的であり、位置的特徴埋め込みブロックと関係的特徴埋め込みブロックという2つのモジュールに依存している。
実験では、ベンチマークデータセット上で最先端の分類とセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2020-11-18T04:16:51Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。