論文の概要: Vector Neurons: A General Framework for SO(3)-Equivariant Networks
- arxiv url: http://arxiv.org/abs/2104.12229v1
- Date: Sun, 25 Apr 2021 18:48:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:36:32.866032
- Title: Vector Neurons: A General Framework for SO(3)-Equivariant Networks
- Title(参考訳): ベクトルニューロン:SO(3)-等価ネットワークのための一般的なフレームワーク
- Authors: Congyue Deng, Or Litany, Yueqi Duan, Adrien Poulenard, Andrea
Tagliasacchi, Leonidas Guibas
- Abstract要約: 本稿では,ベクトルニューロン表現(Vector Neuron representations)をベースとした汎用フレームワークを提案する。
我々のベクトルニューロンは、SO(3) の作用を潜在空間へ簡単にマッピングできる。
また、回転等変性再構成ネットワークを初めて示しました。
- 参考スコア(独自算出の注目度): 32.81671803104126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Invariance and equivariance to the rotation group have been widely discussed
in the 3D deep learning community for pointclouds. Yet most proposed methods
either use complex mathematical tools that may limit their accessibility, or
are tied to specific input data types and network architectures. In this paper,
we introduce a general framework built on top of what we call Vector Neuron
representations for creating SO(3)-equivariant neural networks for pointcloud
processing. Extending neurons from 1D scalars to 3D vectors, our vector neurons
enable a simple mapping of SO(3) actions to latent spaces thereby providing a
framework for building equivariance in common neural operations -- including
linear layers, non-linearities, pooling, and normalizations. Due to their
simplicity, vector neurons are versatile and, as we demonstrate, can be
incorporated into diverse network architecture backbones, allowing them to
process geometry inputs in arbitrary poses. Despite its simplicity, our method
performs comparably well in accuracy and generalization with other more complex
and specialized state-of-the-art methods on classification and segmentation
tasks. We also show for the first time a rotation equivariant reconstruction
network.
- Abstract(参考訳): 回転群に対する不変性と同分散は、pointcloudsの3dディープラーニングコミュニティで広く議論されている。
しかし、ほとんどの提案手法は、アクセシビリティを制限する複雑な数学的ツールを使うか、特定の入力データ型とネットワークアーキテクチャに結びつくかのどちらかである。
本稿では,SO(3)-同変ニューラルネットワーク作成のためのベクトルニューロン表現(Vector Neuron representations)をベースとした汎用フレームワークを提案する。
ニューロンを1Dスカラーから3Dベクターに拡張することで、我々のベクトルニューロンはSO(3)アクションを潜在空間に簡単にマッピングできるので、線形層、非線形性、プール、正規化を含む、共通の神経操作における等式を構築するためのフレームワークを提供する。
その単純さから、ベクトルニューロンは汎用性があり、我々が示すように、様々なネットワークアーキテクチャのバックボーンに組み込むことができ、任意のポーズで幾何学入力を処理できる。
その単純さにもかかわらず、この手法は他のより複雑で専門的な分類および分割タスクにおいて、精度と一般化が両立する。
また, 回転同変再構成ネットワークを初めて示す。
関連論文リスト
- Leveraging SO(3)-steerable convolutions for pose-robust semantic segmentation in 3D medical data [2.207533492015563]
球面調和に基づく同変ボクセル畳み込みを用いたセグメンテーションネットワークを新たに提案する。
これらのネットワークは、トレーニング中に見えないデータポーズに対して堅牢であり、トレーニング中にローテーションベースのデータ拡張を必要としない。
MRI脳腫瘍におけるセグメンテーション性能と健常な脳構造セグメンテーション課題について検討した。
論文 参考訳(メタデータ) (2023-03-01T09:27:08Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - e3nn: Euclidean Neural Networks [3.231986804142223]
e3nnは、ユークリッドニューラルネットワーク(Euclidean Neural Network)として知られる、E(3)同変のトレーニング可能な関数を作成するためのフレームワークである。
e3nnは3次元のシステムを記述する幾何学的テンソルと幾何学的テンソルを自然に操作し、座標系の変化の下で予測可能な変換を行う。
これらのe3nnのコア演算は、フィールドネットワーク、3次元ステアブルCNN、クレブシュ・ゴルダンネットワーク、SE(3)トランスフォーマー、その他のE(3)同変ネットワークを効率的に調音するのに使うことができる。
論文 参考訳(メタデータ) (2022-07-18T21:19:40Z) - VNT-Net: Rotational Invariant Vector Neuron Transformers [3.04585143845864]
本稿では,最近導入されたベクトルニューロンと自己注意層を組み合わせた回転不変ニューラルネットワークを提案する。
実験により、我々のネットワークは任意のポーズで3Dポイントのクラウドオブジェクトを効率的に処理することを示した。
論文 参考訳(メタデータ) (2022-05-19T16:51:56Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - SpinNet: Learning a General Surface Descriptor for 3D Point Cloud
Registration [57.28608414782315]
ローカルな特徴を抽出するために、SpinNetと呼ばれる新しい、概念的にはシンプルで、ニューラルなアーキテクチャを導入する。
屋内と屋外の両方の実験では、SpinNetが既存の最先端技術より優れていることが示されている。
論文 参考訳(メタデータ) (2020-11-24T15:00:56Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。