論文の概要: Spatial Transformer Point Convolution
- arxiv url: http://arxiv.org/abs/2009.01427v1
- Date: Thu, 3 Sep 2020 03:12:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 07:45:02.045378
- Title: Spatial Transformer Point Convolution
- Title(参考訳): 空間変圧器点畳み込み
- Authors: Yuan Fang, Chunyan Xu, Zhen Cui, Yuan Zong, and Jian Yang
- Abstract要約: 点雲上での異方性畳み込みフィルタを実現するための空間変圧器点畳み込み法を提案する。
暗黙的な幾何学的構造を捉え表現するために,特に空間方向辞書を導入する。
変換空間では、標準画像のような畳み込みを利用して異方性フィルタリングを生成することができる。
- 参考スコア(独自算出の注目度): 47.993153127099895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point clouds are unstructured and unordered in the embedded 3D space. In
order to produce consistent responses under different permutation layouts, most
existing methods aggregate local spatial points through maximum or summation
operation. But such an aggregation essentially belongs to the isotropic
filtering on all operated points therein, which tends to lose the information
of geometric structures. In this paper, we propose a spatial transformer point
convolution (STPC) method to achieve anisotropic convolution filtering on point
clouds. To capture and represent implicit geometric structures, we specifically
introduce spatial direction dictionary to learn those latent geometric
components. To better encode unordered neighbor points, we design sparse
deformer to transform them into the canonical ordered dictionary space by using
direction dictionary learning. In the transformed space, the standard
image-like convolution can be leveraged to generate anisotropic filtering,
which is more robust to express those finer variances of local regions.
Dictionary learning and encoding processes are encapsulated into a network
module and jointly learnt in an end-to-end manner. Extensive experiments on
several public datasets (including S3DIS, Semantic3D, SemanticKITTI)
demonstrate the effectiveness of our proposed method in point clouds semantic
segmentation task.
- Abstract(参考訳): 点雲は非構造であり、3D空間に埋め込まれていない。
異なる置換レイアウトの下で一貫した応答を生成するために、既存の手法では、最大または総和演算によって局所空間点を集約する。
しかし、そのようなアグリゲーションは本質的にすべての操作点の等方的フィルタリングに属し、幾何学的構造に関する情報を失う傾向がある。
本稿では,点雲上での異方性畳み込みフィルタを実現するための空間変圧器点畳み込み法を提案する。
暗黙的な幾何学構造を捉え,表現するために,空間方向辞書を導入する。
非順序の隣点をより良くエンコードするために、方向辞書学習を用いて、スパース変形器を正準順序辞書空間に変換するように設計する。
変換空間では、標準画像のような畳み込みを利用して異方性フィルタを生成することができ、局所領域のより微細な分散を表現することがより堅牢である。
辞書学習と符号化プロセスはネットワークモジュールにカプセル化され、エンドツーエンドで共同で学習される。
複数の公開データセット(S3DIS,Semantic3D,SemanticKITTIなど)に対する大規模な実験により,提案手法の有効性が示された。
関連論文リスト
- Learning SO(3)-Invariant Semantic Correspondence via Local Shape Transform [62.27337227010514]
RISTと呼ばれる局所形状変換を用いた自己教師型回転不変3次元対応学習システムを提案する。
RISTは、挑戦的なクラス内変分と任意の向きの下でも、形状間の密接な対応を確立することを学ぶ。
RISTは、任意の回転点雲対に与えられる3D部分ラベル転送とセマンティックキーポイント転送の最先端性能を示す。
論文 参考訳(メタデータ) (2024-04-17T08:09:25Z) - Rethinking Rotation Invariance with Point Cloud Registration [18.829454172955202]
本稿では, 回転不変形状符号化, 整列化機能統合, 深部特徴登録の3段階を通した回転不変性学習のための効果的なフレームワークを提案する。
3次元形状分類,部分分割,検索タスクの実験結果から,本研究の可能性が確認された。
論文 参考訳(メタデータ) (2022-12-31T08:17:09Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - Permutation Matters: Anisotropic Convolutional Layer for Learning on
Point Clouds [145.79324955896845]
本稿では,各点のソフトな置換行列を計算する変分異方性畳み込み演算(PAI-Conv)を提案する。
点雲の実験により、PAI-Convは分類とセマンティックセグメンテーションのタスクにおいて競合する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-05-27T02:42:29Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - Quaternion Equivariant Capsule Networks for 3D Point Clouds [58.566467950463306]
本稿では,3次元回転と翻訳に同値な点雲を処理するための3次元カプセルモジュールを提案する。
カプセル間の動的ルーティングをよく知られたWeiszfeldアルゴリズムに接続する。
オペレーターに基づいて、ポーズから幾何学をアンタングルするカプセルネットワークを構築します。
論文 参考訳(メタデータ) (2019-12-27T13:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。