論文の概要: Sparse Steerable Convolutions: An Efficient Learning of
SE(3)-Equivariant Features for Estimation and Tracking of Object Poses in 3D
Space
- arxiv url: http://arxiv.org/abs/2111.07383v1
- Date: Sun, 14 Nov 2021 16:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 16:17:57.986140
- Title: Sparse Steerable Convolutions: An Efficient Learning of
SE(3)-Equivariant Features for Estimation and Tracking of Object Poses in 3D
Space
- Title(参考訳): スパースステアブル・コンボリューション:3次元空間における物体電位の推定と追跡のためのSE(3)-等価特徴の効率的な学習
- Authors: Jiehong Lin, Hongyang Li, Ke Chen, Jiangbo Lu, Kui Jia
- Abstract要約: ステアブル・コンボリューションは3Dセマンティック分析の利点を最近証明した。
この利点は、高密度の体積データに対する高価な計算によってもたらされる。
本稿では,その欠点を解決するために,スパースステアブル・コンボリューション(SS-Conv)の新たな設計を提案する。
- 参考スコア(独自算出の注目度): 46.92381589730825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a basic component of SE(3)-equivariant deep feature learning, steerable
convolution has recently demonstrated its advantages for 3D semantic analysis.
The advantages are, however, brought by expensive computations on dense,
volumetric data, which prevent its practical use for efficient processing of 3D
data that are inherently sparse. In this paper, we propose a novel design of
Sparse Steerable Convolution (SS-Conv) to address the shortcoming; SS-Conv
greatly accelerates steerable convolution with sparse tensors, while strictly
preserving the property of SE(3)-equivariance. Based on SS-Conv, we propose a
general pipeline for precise estimation of object poses, wherein a key design
is a Feature-Steering module that takes the full advantage of
SE(3)-equivariance and is able to conduct an efficient pose refinement. To
verify our designs, we conduct thorough experiments on three tasks of 3D object
semantic analysis, including instance-level 6D pose estimation, category-level
6D pose and size estimation, and category-level 6D pose tracking. Our proposed
pipeline based on SS-Conv outperforms existing methods on almost all the
metrics evaluated by the three tasks. Ablation studies also show the
superiority of our SS-Conv over alternative convolutions in terms of both
accuracy and efficiency. Our code is released publicly at
https://github.com/Gorilla-Lab-SCUT/SS-Conv.
- Abstract(参考訳): se(3)同変深層特徴学習の基本成分として、ステアブル畳み込みは3次元意味解析の利点を最近実証している。
しかし、その利点は、密度の高い体積データに対する高価な計算によってもたらされ、本質的に疎い3Dデータの効率的な処理に実用的利用を妨げている。
本稿では,ss-convがスパーステンソルとのステアブル畳み込みを著しく促進し,se(3)-共分散の性質を厳密に保ちながら,スパースステアブル畳み込み(ss-conv)の新たな設計を提案する。
ss-convに基づいて,se(3)-同分散を最大限に活用し,効率的なポーズ改善が可能な機能ステアリングモジュールをキー設計とする,オブジェクトポーズの高精度推定のための一般的なパイプラインを提案する。
本研究は,3次元オブジェクトセマンティック分析の3つの課題について,事例レベルの6Dポーズ推定,カテゴリレベルの6Dポーズとサイズ推定,カテゴリレベルの6Dポーズトラッキングを含む徹底的な実験を行った。
提案したSS-Convに基づくパイプラインは,3つのタスクで評価された指標のほとんどすべてにおいて,既存の手法よりも優れている。
また, アブレーション研究は, ss-convの精度と効率の両面において, 代替畳み込みよりも優れていることを示した。
私たちのコードはhttps://github.com/Gorilla-Lab-SCUT/SS-Conv.comで公開されています。
関連論文リスト
- PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Bayesian Self-Training for Semi-Supervised 3D Segmentation [59.544558398992386]
3Dセグメンテーションはコンピュータビジョンの中核的な問題である。
完全に教師されたトレーニングを採用するために、3Dポイントクラウドを密にラベル付けすることは、労働集約的で高価です。
半教師付きトレーニングは、ラベル付きデータの小さなセットのみを付与し、より大きなラベル付きデータセットを伴って、より実用的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-09-12T14:54:31Z) - ShapeSplat: A Large-scale Dataset of Gaussian Splats and Their Self-Supervised Pretraining [104.34751911174196]
ShapeNetとModelNetを用いた大規模3DGSデータセットを構築した。
データセットのShapeSplatは、87のユニークなカテゴリから65Kのオブジェクトで構成されています。
textbftextitGaussian-MAEを導入し、ガウスパラメータからの表現学習の独特な利点を強調した。
論文 参考訳(メタデータ) (2024-08-20T14:49:14Z) - Spatial Pruned Sparse Convolution for Efficient 3D Object Detection [41.62839541489369]
3Dシーンは多数のバックグラウンドポイントによって支配されており、主に前景オブジェクトにフォーカスする必要がある検出タスクには冗長である。
本稿では,既存の3D CNNの主要なコンポーネントを分析し,データの冗長性を無視し,さらにダウンサンプリングプロセスでそれを増幅することにより,余分な計算オーバーヘッドと不要な計算オーバーヘッドを発生させる。
SPS-ConvとSPSS-ConvとSPRSの2つの変種を含む新しい畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:19:06Z) - Focal Sparse Convolutional Networks for 3D Object Detection [121.45950754511021]
我々はスパースCNNの能力を高めるために2つの新しいモジュールを導入する。
焦点スパース・コンボリューション(Focals Conv)であり、焦点スパース・コンボリューションの多様変種である。
スパース・コンボリューションにおける空間的に学習可能な空間空間性は,高度な3次元物体検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-04-26T17:34:10Z) - Equivariant Point Network for 3D Point Cloud Analysis [17.689949017410836]
点雲解析のための実効的で実用的なSE(3)(3次元翻訳と回転)同変ネットワークを提案する。
まず,6次元の畳み込みを2つの分離可能な畳み込み作用素に分解する新しい枠組みであるSE(3)分離点畳み込みを提案する。
第2に,同変特徴の表現性を効果的に活用するアテンション層を導入する。
論文 参考訳(メタデータ) (2021-03-25T21:57:10Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - 3D Point-to-Keypoint Voting Network for 6D Pose Estimation [8.801404171357916]
3次元キーポイントの空間構造特性に基づくRGB-Dデータから6次元ポーズ推定のためのフレームワークを提案する。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-12-22T11:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。