論文の概要: Connecting Permutation Equivariant Neural Networks and Partition
Diagrams
- arxiv url: http://arxiv.org/abs/2212.08648v1
- Date: Fri, 16 Dec 2022 18:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:04:01.540220
- Title: Connecting Permutation Equivariant Neural Networks and Partition
Diagrams
- Title(参考訳): 置換同変ニューラルネットワークと分割ダイアグラムの接続
- Authors: Edward Pearce-Crump
- Abstract要約: 分割代数と対称群の間に存在するシュル=ワイル双対性が、置換同変ニューラルネットワークを特徴づけるためのより強い理論的基礎をもたらすことを示す。
特に、そのようなテンソルパワー空間間の学習可能、線形、置換等変層関数に対する行列の基底は、標準基底の$M_n$である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show how the Schur-Weyl duality that exists between the partition algebra
and the symmetric group results in a stronger theoretical foundation for
characterising all of the possible permutation equivariant neural networks
whose layers are some tensor power of the permutation representation $M_n$ of
the symmetric group $S_n$. In doing so, we unify two separate bodies of
literature, and we correct some of the major results that are now widely quoted
by the machine learning community. In particular, we find a basis of matrices
for the learnable, linear, permutation equivariant layer functions between such
tensor power spaces in the standard basis of $M_n$ by using an elegant
graphical representation of a basis of set partitions for the partition algebra
and its related vector spaces. Also, we show how we can calculate the number of
weights that must appear in these layer functions by looking at certain paths
through the McKay quiver for $M_n$. Finally, we describe how our approach
generalises to the construction of neural networks that are equivariant to
local symmetries.
- Abstract(参考訳): 分割代数と対称群の間に存在するシュル=ワイル双対性は、層が対称群 $S_n$ の置換表現 $M_n$ のテンソルパワーを持つ可換な置換同変ニューラルネットワークの全てを特徴づける強力な理論的基礎をもたらすことを示す。
その際、我々は2つの別々の文献を統一し、現在機械学習コミュニティによって広く引用されている主要な結果のいくつかを修正します。
特に、分割代数とその関連ベクトル空間に対する集合分割の基底のエレガントなグラフィカルな表現を用いて、そのようなテンソルパワー空間間の学習可能、線形、置換等変層関数の基底を$M_n$の標準基底とする。
また、mckayクイバーを通る特定の経路を$m_n$で見て、これらの層関数に現れなければならない重みの数を計算する方法を示す。
最後に,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかを述べる。
関連論文リスト
- Fast computation of permutation equivariant layers with the partition
algebra [0.0]
入力の置換に不変あるいは不変の線形ニューラルネットワーク層は、現代のディープラーニングアーキテクチャのコアビルディングブロックを形成する。
例えば、DeepSetのレイヤや、トランスフォーマーの注目ブロックやグラフニューラルネットワークで発生する線形レイヤなどがある。
論文 参考訳(メタデータ) (2023-03-10T21:13:12Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - How Jellyfish Characterise Alternating Group Equivariant Neural Networks [0.0]
学習可能で線型で$A_n$-equivariantな層関数の基底は、そのようなテンソルパワー空間の間の$mathbbRn$の標準基底である。
また,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかについても述べる。
論文 参考訳(メタデータ) (2023-01-24T17:39:10Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Applying Lie Groups Approaches for Rigid Registration of Point Clouds [3.308743964406687]
リー群とリー代数を用いて、点雲で表される2つの曲面を最もよく登録する剛変換を求める。
いわゆる双対剛性登録は、本質的な二階配向テンソルを比較することで定式化することができる。
リー代数に配向テンソル場を埋め込む際に有望な結果を示す。
論文 参考訳(メタデータ) (2020-06-23T21:26:57Z) - The general theory of permutation equivarant neural networks and higher
order graph variational encoders [6.117371161379209]
一般置換同変層の式を導出し、各層が列と列を同時に置換することで行列に作用する場合を含む。
このケースはグラフ学習や関係学習アプリケーションで自然に発生する。
2階グラフ変分エンコーダを提案し、同変生成モデルの潜在分布は交換可能である必要があることを示す。
論文 参考訳(メタデータ) (2020-04-08T13:29:56Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。