論文の概要: Lie Neurons: Adjoint-Equivariant Neural Networks for Semisimple Lie Algebras
- arxiv url: http://arxiv.org/abs/2310.04521v3
- Date: Thu, 6 Jun 2024 18:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 20:56:18.035501
- Title: Lie Neurons: Adjoint-Equivariant Neural Networks for Semisimple Lie Algebras
- Title(参考訳): リーニューロン : 半単純リー代数のための随伴同変ニューラルネットワーク
- Authors: Tzu-Yuan Lin, Minghan Zhu, Maani Ghaffari,
- Abstract要約: 本稿では,任意の半単純リー代数のデータを入力として取り込む同変ニューラルネットワークを提案する。
対応する群はリー代数を随伴演算として作用し、提案したネットワーク随伴-同変を導出する。
我々のフレームワークは、3次元ユークリッド空間からリー代数空間への単純な$mathrmSO(3)$-equivariantネットワークであるベクトルニューロンを一般化する。
- 参考スコア(独自算出の注目度): 5.596048634951087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an equivariant neural network that takes data in any semi-simple Lie algebra as input. The corresponding group acts on the Lie algebra as adjoint operations, making our proposed network adjoint-equivariant. Our framework generalizes the Vector Neurons, a simple $\mathrm{SO}(3)$-equivariant network, from 3-D Euclidean space to Lie algebra spaces, building upon the invariance property of the Killing form. Furthermore, we propose novel Lie bracket layers and geometric channel mixing layers that extend the modeling capacity. Experiments are conducted for the $\mathfrak{so}(3)$, $\mathfrak{sl}(3)$, and $\mathfrak{sp}(4)$ Lie algebras on various tasks, including fitting equivariant and invariant functions, learning system dynamics, point cloud registration, and homography-based shape classification. Our proposed equivariant network shows wide applicability and competitive performance in various domains.
- Abstract(参考訳): 本稿では,任意の半単純リー代数のデータを入力として取り込む同変ニューラルネットワークを提案する。
対応する群はリー代数を随伴演算として作用し、提案したネットワーク随伴-同変を導出する。
我々のフレームワークは、3次元ユークリッド空間からリー代数空間への単純な$\mathrm{SO}(3)$-equivariant Networkであるベクトルニューロンを一般化し、キリング形式の不変性の上に構築する。
さらに,モデリング能力を拡張した新しいリーブラケット層と幾何チャネル混合層を提案する。
$\mathfrak{so}(3)$, $\mathfrak{sl}(3)$, $\mathfrak{sp}(4)$ Lie algebras on various tasks, including fit equivariant and invariant function, learning system dynamics, point cloud registration, and homography-based shape classification。
提案する同変ネットワークは,様々な領域で適用性と競争性を示す。
関連論文リスト
- Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - How Jellyfish Characterise Alternating Group Equivariant Neural Networks [0.0]
学習可能で線型で$A_n$-equivariantな層関数の基底は、そのようなテンソルパワー空間の間の$mathbbRn$の標準基底である。
また,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかについても述べる。
論文 参考訳(メタデータ) (2023-01-24T17:39:10Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Connecting Permutation Equivariant Neural Networks and Partition
Diagrams [0.0]
分割代数と対称群の間に存在するシュル=ワイル双対性が、置換同変ニューラルネットワークを特徴づけるためのより強い理論的基礎をもたらすことを示す。
特に、そのようなテンソルパワー空間間の学習可能、線形、置換等変層関数に対する行列の基底は、標準基底の$M_n$である。
論文 参考訳(メタデータ) (2022-12-16T18:48:54Z) - Geometric and Physical Quantities improve E(3) Equivariant Message
Passing [59.98327062664975]
等変グラフネットワークを一般化する等変グラフニューラルネットワーク(SEGNN)を提案する。
このモデルは、ステアブルで構成され、メッセージと更新機能の両方に幾何学的および物理的情報を組み込むことができる。
計算物理学と化学におけるいくつかの課題において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-06T16:34:26Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - Vector Neurons: A General Framework for SO(3)-Equivariant Networks [32.81671803104126]
本稿では,ベクトルニューロン表現(Vector Neuron representations)をベースとした汎用フレームワークを提案する。
我々のベクトルニューロンは、SO(3) の作用を潜在空間へ簡単にマッピングできる。
また、回転等変性再構成ネットワークを初めて示しました。
論文 参考訳(メタデータ) (2021-04-25T18:48:15Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Algebraic Neural Networks: Stability to Deformations [179.55535781816343]
可換代数を用いた代数ニューラルネットワーク(AlgNN)について検討する。
AlgNNはユークリッド畳み込みニューラルネットワーク、グラフニューラルネットワーク、グループニューラルネットワークなどの多様なアーキテクチャを統合する。
論文 参考訳(メタデータ) (2020-09-03T03:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。