論文の概要: Automatic Symmetry Discovery with Lie Algebra Convolutional Network
- arxiv url: http://arxiv.org/abs/2109.07103v1
- Date: Wed, 15 Sep 2021 06:16:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 15:11:07.509376
- Title: Automatic Symmetry Discovery with Lie Algebra Convolutional Network
- Title(参考訳): Lie Algebra Convolutional Networkによる自動対称性探索
- Authors: Nima Dehmamy, Robin Walters, Yanchen Liu, Dashun Wang, Rose Yu
- Abstract要約: 既存の連続群に対する同変ニューラルネットワークは離散化や群表現を必要とする。
我々はリー群の代わりにリー代数を扱うことを提案する。
我々のモデルであるリー代数畳み込みネットワーク(L-conv)はポテンシャル対称性を学習することができ、群の離散化を必要としない。
- 参考スコア(独自算出の注目度): 11.19708535159457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing equivariant neural networks for continuous groups require
discretization or group representations. All these approaches require detailed
knowledge of the group parametrization and cannot learn entirely new
symmetries. We propose to work with the Lie algebra (infinitesimal generators)
instead of the Lie group.Our model, the Lie algebra convolutional network
(L-conv) can learn potential symmetries and does not require discretization of
the group. We show that L-conv can serve as a building block to construct any
group equivariant architecture. We discuss how CNNs and Graph Convolutional
Networks are related to and can be expressed as L-conv with appropriate groups.
We also derive the MSE loss for a single L-conv layer and find a deep relation
with Lagrangians used in physics, with some of the physics aiding in defining
generalization and symmetries in the loss landscape. Conversely, L-conv could
be used to propose more general equivariant ans\"atze for scientific machine
learning.
- Abstract(参考訳): 既存の連続群に対する同変ニューラルネットワークは離散化や群表現を必要とする。
これらのアプローチはすべて群パラメトリゼーションの詳細な知識を必要とし、全く新しい対称性を学べない。
我々のモデルでは、リー代数畳み込みネットワーク(L-conv)はポテンシャル対称性を学習することができ、群の離散化を必要としない。
l-conv は任意の群同変アーキテクチャを構成するためのビルディングブロックとして機能する。
本稿では,cnnとグラフ畳み込みネットワークとの関連性について論じ,l-convとして表現できる。
また,単一のl-conv層に対するmse損失を導出し,物理学で用いられるラグランジアンとの深い関係を見出した。
逆に、L-conv は科学機械学習のためのより一般的な同変 ans\atze の提案に使用できる。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Lie Neurons: Adjoint-Equivariant Neural Networks for Semisimple Lie Algebras [5.596048634951087]
本稿では,任意の半単純リー代数のデータを入力として取り込む同変ニューラルネットワークを提案する。
対応する群はリー代数を随伴演算として作用し、提案したネットワーク随伴-同変を導出する。
我々のフレームワークは、3次元ユークリッド空間からリー代数空間への単純な$mathrmSO(3)$-equivariantネットワークであるベクトルニューロンを一般化する。
論文 参考訳(メタデータ) (2023-10-06T18:34:27Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - Generative Adversarial Symmetry Discovery [19.098785309131458]
リーGANは対称性を解釈可能なリー代数基底として表現し、様々な対称性を発見できる。
学習された対称性は、予測の精度と一般化を改善するために、既存の同変ニューラルネットワークで容易に利用することができる。
論文 参考訳(メタデータ) (2023-02-01T04:28:36Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - A tradeoff between universality of equivariant models and learnability
of symmetries [0.0]
特定の条件下で対称性と関数を同時に学習することは不可能であることを示す。
我々は、ニューラルネットワークの特定のファミリーを分析し、それらが不合理な結果の条件を満たすかどうかを判断する。
実用面では、グループ畳み込みニューラルネットワークの分析により、よく知られた畳み込みを一般化することができる。
論文 参考訳(メタデータ) (2022-10-17T21:23:22Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning [90.20563679417567]
本稿では,深層強化学習のためのMDP準同型ネットワークを提案する。
MDP準同型ネットワーク(英: MDP homomorphic network)は、MDPの結合状態-作用空間における対称性の下で不変なニューラルネットワークである。
このようなネットワークは,グリッドワールドであるCartPoleとPongの非構造化ネットワークよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2020-06-30T15:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。