論文の概要: Connecting Permutation Equivariant Neural Networks and Partition
Diagrams
- arxiv url: http://arxiv.org/abs/2212.08648v1
- Date: Fri, 16 Dec 2022 18:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:04:01.540220
- Title: Connecting Permutation Equivariant Neural Networks and Partition
Diagrams
- Title(参考訳): 置換同変ニューラルネットワークと分割ダイアグラムの接続
- Authors: Edward Pearce-Crump
- Abstract要約: 分割代数と対称群の間に存在するシュル=ワイル双対性が、置換同変ニューラルネットワークを特徴づけるためのより強い理論的基礎をもたらすことを示す。
特に、そのようなテンソルパワー空間間の学習可能、線形、置換等変層関数に対する行列の基底は、標準基底の$M_n$である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show how the Schur-Weyl duality that exists between the partition algebra
and the symmetric group results in a stronger theoretical foundation for
characterising all of the possible permutation equivariant neural networks
whose layers are some tensor power of the permutation representation $M_n$ of
the symmetric group $S_n$. In doing so, we unify two separate bodies of
literature, and we correct some of the major results that are now widely quoted
by the machine learning community. In particular, we find a basis of matrices
for the learnable, linear, permutation equivariant layer functions between such
tensor power spaces in the standard basis of $M_n$ by using an elegant
graphical representation of a basis of set partitions for the partition algebra
and its related vector spaces. Also, we show how we can calculate the number of
weights that must appear in these layer functions by looking at certain paths
through the McKay quiver for $M_n$. Finally, we describe how our approach
generalises to the construction of neural networks that are equivariant to
local symmetries.
- Abstract(参考訳): 分割代数と対称群の間に存在するシュル=ワイル双対性は、層が対称群 $S_n$ の置換表現 $M_n$ のテンソルパワーを持つ可換な置換同変ニューラルネットワークの全てを特徴づける強力な理論的基礎をもたらすことを示す。
その際、我々は2つの別々の文献を統一し、現在機械学習コミュニティによって広く引用されている主要な結果のいくつかを修正します。
特に、分割代数とその関連ベクトル空間に対する集合分割の基底のエレガントなグラフィカルな表現を用いて、そのようなテンソルパワー空間間の学習可能、線形、置換等変層関数の基底を$M_n$の標準基底とする。
また、mckayクイバーを通る特定の経路を$m_n$で見て、これらの層関数に現れなければならない重みの数を計算する方法を示す。
最後に,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかを述べる。
関連論文リスト
- Monomial Matrix Group Equivariant Neural Functional Networks [1.797555376258229]
ネットワーク重みに対するグループアクションの研究を、スケーリング/サイン・フリップの対称性を取り入れて拡張する。
我々はNFNの新しいファミリーをMonomial Matrix Group Equivariant Neural Functional Networks (Monomial-NFN)と名付けた。
論文 参考訳(メタデータ) (2024-09-18T04:36:05Z) - Geometrical aspects of lattice gauge equivariant convolutional neural
networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)は、非アベリア格子ゲージ理論に適用可能な畳み込みニューラルネットワークの枠組みである。
論文 参考訳(メタデータ) (2023-03-20T20:49:08Z) - Fast computation of permutation equivariant layers with the partition
algebra [0.0]
入力の置換に不変あるいは不変の線形ニューラルネットワーク層は、現代のディープラーニングアーキテクチャのコアビルディングブロックを形成する。
例えば、DeepSetのレイヤや、トランスフォーマーの注目ブロックやグラフニューラルネットワークで発生する線形レイヤなどがある。
論文 参考訳(メタデータ) (2023-03-10T21:13:12Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - How Jellyfish Characterise Alternating Group Equivariant Neural Networks [0.0]
学習可能で線型で$A_n$-equivariantな層関数の基底は、そのようなテンソルパワー空間の間の$mathbbRn$の標準基底である。
また,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかについても述べる。
論文 参考訳(メタデータ) (2023-01-24T17:39:10Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning [90.20563679417567]
本稿では,深層強化学習のためのMDP準同型ネットワークを提案する。
MDP準同型ネットワーク(英: MDP homomorphic network)は、MDPの結合状態-作用空間における対称性の下で不変なニューラルネットワークである。
このようなネットワークは,グリッドワールドであるCartPoleとPongの非構造化ネットワークよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2020-06-30T15:38:37Z) - The general theory of permutation equivarant neural networks and higher
order graph variational encoders [6.117371161379209]
一般置換同変層の式を導出し、各層が列と列を同時に置換することで行列に作用する場合を含む。
このケースはグラフ学習や関係学習アプリケーションで自然に発生する。
2階グラフ変分エンコーダを提案し、同変生成モデルの潜在分布は交換可能である必要があることを示す。
論文 参考訳(メタデータ) (2020-04-08T13:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。