論文の概要: Lie Neurons: Adjoint-Equivariant Neural Networks for Semisimple Lie
Algebras
- arxiv url: http://arxiv.org/abs/2310.04521v1
- Date: Fri, 6 Oct 2023 18:34:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 18:00:16.588936
- Title: Lie Neurons: Adjoint-Equivariant Neural Networks for Semisimple Lie
Algebras
- Title(参考訳): 半単純リー代数のための随伴同変ニューラルネットワーク
- Authors: Tzu-Yuan Lin, Minghan Zhu, Maani Ghaffari
- Abstract要約: 本稿では,リー代数データを入力とする随伴同変ニューラルネットワークを提案する。
提案するネットワークは、任意の半単純リー代数に作用する一般的なフレームワークである。
- 参考スコア(独自算出の注目度): 6.289397858396294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an adjoint-equivariant neural network that takes Lie
algebra data as input. Various types of equivariant neural networks have been
proposed in the literature, which treat the input data as elements in a vector
space carrying certain types of transformations. In comparison, we aim to
process inputs that are transformations between vector spaces. The change of
basis on transformation is described by conjugations, inducing the
adjoint-equivariance relationship that our model is designed to capture.
Leveraging the invariance property of the Killing form, the proposed network is
a general framework that works for arbitrary semisimple Lie algebras. Our
network possesses a simple structure that can be viewed as a Lie algebraic
generalization of a multi-layer perceptron (MLP). This work extends the
application of equivariant feature learning. As an example, we showcase its
value in homography modeling using sl(3) Lie algebra.
- Abstract(参考訳): 本稿では,リー代数データを入力とする随伴同変ニューラルネットワークを提案する。
入力データを特定の種類の変換を持つベクトル空間の要素として扱う、様々なタイプの同変ニューラルネットワークが文献に提案されている。
比較対象はベクトル空間間の変換である入力を処理することである。
変換に基づく基底の変化は共役によって記述され、モデルが捉えるように設計された随伴-等分散関係を誘導する。
キリング形式の不変性を利用して、提案されたネットワークは任意の半単純リー代数を扱う一般的なフレームワークである。
我々のネットワークは単純構造を持ち、多層パーセプトロン(MLP)のリー代数的一般化と見なすことができる。
この研究は同変特徴学習の適用を拡大する。
例えば、sl(3) リー代数を用いたホモグラフィモデリングにおいて、その値を示す。
関連論文リスト
- Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - How Jellyfish Characterise Alternating Group Equivariant Neural Networks [0.0]
学習可能で線型で$A_n$-equivariantな層関数の基底は、そのようなテンソルパワー空間の間の$mathbbRn$の標準基底である。
また,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかについても述べる。
論文 参考訳(メタデータ) (2023-01-24T17:39:10Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Connecting Permutation Equivariant Neural Networks and Partition Diagrams [0.0]
置換同変ニューラルネットワークに現れる重み行列はすべて、シュル=ワイル双対性から得られることを示す。
特に、シュル=ワイル双対性を適用して、ウェイト行列自身を計算するための単純で図式的な手法を導出する。
論文 参考訳(メタデータ) (2022-12-16T18:48:54Z) - Geometric and Physical Quantities improve E(3) Equivariant Message
Passing [59.98327062664975]
等変グラフネットワークを一般化する等変グラフニューラルネットワーク(SEGNN)を提案する。
このモデルは、ステアブルで構成され、メッセージと更新機能の両方に幾何学的および物理的情報を組み込むことができる。
計算物理学と化学におけるいくつかの課題において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-06T16:34:26Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - Vector Neurons: A General Framework for SO(3)-Equivariant Networks [32.81671803104126]
本稿では,ベクトルニューロン表現(Vector Neuron representations)をベースとした汎用フレームワークを提案する。
我々のベクトルニューロンは、SO(3) の作用を潜在空間へ簡単にマッピングできる。
また、回転等変性再構成ネットワークを初めて示しました。
論文 参考訳(メタデータ) (2021-04-25T18:48:15Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Algebraic Neural Networks: Stability to Deformations [179.55535781816343]
可換代数を用いた代数ニューラルネットワーク(AlgNN)について検討する。
AlgNNはユークリッド畳み込みニューラルネットワーク、グラフニューラルネットワーク、グループニューラルネットワークなどの多様なアーキテクチャを統合する。
論文 参考訳(メタデータ) (2020-09-03T03:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。