論文の概要: Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution
- arxiv url: http://arxiv.org/abs/2211.15903v1
- Date: Tue, 29 Nov 2022 03:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 17:53:12.597650
- Title: Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution
- Title(参考訳): 安定カーネルとグループ畳み込みによるSE(3)同変ネットワークの等価性
- Authors: Adrien Poulenard, Maks Ovsjanikov, Leonidas J. Guibas
- Abstract要約: 近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
- 参考スコア(独自算出の注目度): 90.67482899242093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A wide range of techniques have been proposed in recent years for designing
neural networks for 3D data that are equivariant under rotation and translation
of the input. Most approaches for equivariance under the Euclidean group
$\mathrm{SE}(3)$ of rotations and translations fall within one of the two major
categories. The first category consists of methods that use
$\mathrm{SE}(3)$-convolution which generalizes classical
$\mathbb{R}^3$-convolution on signals over $\mathrm{SE}(3)$. Alternatively, it
is possible to use \textit{steerable convolution} which achieves
$\mathrm{SE}(3)$-equivariance by imposing constraints on
$\mathbb{R}^3$-convolution of tensor fields. It is known by specialists in the
field that the two approaches are equivalent, with steerable convolution being
the Fourier transform of $\mathrm{SE}(3)$ convolution. Unfortunately, these
results are not widely known and moreover the exact relations between deep
learning architectures built upon these two approaches have not been precisely
described in the literature on equivariant deep learning. In this work we
provide an in-depth analysis of both methods and their equivalence and relate
the two constructions to multiview convolutional networks. Furthermore, we
provide theoretical justifications of separability of $\mathrm{SE}(3)$ group
convolution, which explain the applicability and success of some recent
approaches. Finally, we express different methods using a single coherent
formalism and provide explicit formulas that relate the kernels learned by
different methods. In this way, our work helps to unify different
previously-proposed techniques for achieving roto-translational equivariance,
and helps to shed light on both the utility and precise differences between
various alternatives. We also derive new TFN non-linearities from our
equivalence principle and test them on practical benchmark datasets.
- Abstract(参考訳): 近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
ユークリッド群$\mathrm{SE}(3)$の回転と変換の同値性に対するほとんどのアプローチは、2つの主要な圏の1つに該当する。
最初のカテゴリは、$\mathrm{se}(3)$-convolutionを使用して、$\mathrm{se}(3)$で信号の古典的な$\mathbb{r}^3$-convolutionを一般化する手法で構成されている。
あるいは、テンソル場の$\mathbb{R}^3$-畳み込みに制約を課すことで、$\mathrm{SE}(3)$-equivarianceを達成できる \textit{steerable convolution} を使用することもできる。
この分野の専門家によって、2つのアプローチが同値であることは知られ、ステアブル畳み込みは$\mathrm{se}(3)$畳み込みのフーリエ変換である。
残念ながら、これらの結果は広く知られておらず、さらにこれら2つのアプローチに基づいて構築されたディープラーニングアーキテクチャ間の正確な関係は、同変深層学習に関する文献に正確に記述されていない。
本研究では,両手法とその等価性を詳細に解析し,その2つの構成を多視点畳み込みネットワークに関連付ける。
さらに、最近のアプローチの適用性と成功を説明するために、$\mathrm{SE}(3)$ group convolution の分離性の理論的正当化を与える。
最後に、単一のコヒーレント形式を用いて異なる手法を表現し、異なる方法によって学習されたカーネルを関連付ける明示的な公式を提供する。
このようにして、我々の研究は、ロト翻訳の同値性を達成するために、これまで提案された様々な技術を統合するのに役立ち、様々な代替品の実用性と正確な違いの両方に光を当てるのに役立ちます。
また、同値原理から新しいTFN非線形性を導き、実用的なベンチマークデータセット上でテストする。
関連論文リスト
- Affine Invariance in Continuous-Domain Convolutional Neural Networks [6.019182604573028]
本研究では,連続領域畳み込みニューラルネットワークにおけるアフィン不変性について検討する。
アフィン変換における2つの入力信号の類似性を評価するための新しい基準を導入する。
私たちの研究は最終的には、実用的なディープラーニングパイプラインが扱える幾何学的変換の範囲を広げることができます。
論文 参考訳(メタデータ) (2023-11-13T14:17:57Z) - Fast, Expressive SE$(n)$ Equivariant Networks through Weight-Sharing in Position-Orientation Space [15.495593104596399]
我々は,畳み込みネットワークにおける重み共有の概念を,ポイントペア上でのメッセージ関数の共有として定式化する。
我々は3次元点雲処理のための効率的な同変群畳み込みネットワークを開発した。
論文 参考訳(メタデータ) (2023-10-04T17:06:32Z) - Rethinking SO(3)-equivariance with Bilinear Tensor Networks [0.0]
我々は、偏差対称性の破れにより、SO$(2)$のベクトルおよび順序2テンソル表現のみに作用するネットワークの表現性を向上させることができることを示す。
本稿では, b-中間子崩壊から生じる粒子ジェットを, 圧倒的なQCD背景から識別しなくてはならない, テクスタイブタグと呼ばれる高エネルギー物理の重要な問題に対して, 本手法を実証する。
論文 参考訳(メタデータ) (2023-03-20T17:23:15Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - Rotation-Invariant Point Convolution With Multiple Equivariant
Alignments [1.0152838128195467]
回転同変アライメントを用いることで、任意の畳み込み層を回転不変にすることができることを示す。
このコア層では、オブジェクト分類とセマンティックセグメンテーションの両方における最先端の結果を改善する回転不変アーキテクチャを設計します。
論文 参考訳(メタデータ) (2020-12-07T20:47:46Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。