論文の概要: Brauer's Group Equivariant Neural Networks
- arxiv url: http://arxiv.org/abs/2212.08630v1
- Date: Fri, 16 Dec 2022 18:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:04:43.057247
- Title: Brauer's Group Equivariant Neural Networks
- Title(参考訳): ブラウアー群同変ニューラルネットワーク
- Authors: Edward Pearce-Crump
- Abstract要約: 3つの対称群に対して$mathbbRn$のテンソルパワーを持つ群同変ニューラルネットワークについて検討する。
このようなテンソルパワー空間間の学習可能、線型、等変層関数に対する行列の分散集合を求める。
シュル=ワイル双対性(Schur-Weyl duality)は、ニューラルネットワークの構造を理解するために用いられる強力な数学的概念である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We provide a full characterisation of all of the possible group equivariant
neural networks whose layers are some tensor power of $\mathbb{R}^{n}$ for
three symmetry groups that are missing from the machine learning literature:
$O(n)$, the orthogonal group; $SO(n)$, the special orthogonal group; and
$Sp(n)$, the symplectic group. In particular, we find a spanning set of
matrices for the learnable, linear, equivariant layer functions between such
tensor power spaces in the standard basis of $\mathbb{R}^{n}$ when the group is
$O(n)$ or $SO(n)$, and in the symplectic basis of $\mathbb{R}^{n}$ when the
group is $Sp(n)$. The neural networks that we characterise are simple to
implement since our method circumvents the typical requirement when building
group equivariant neural networks of having to decompose the tensor power
spaces of $\mathbb{R}^{n}$ into irreducible representations. We also describe
how our approach generalises to the construction of neural networks that are
equivariant to local symmetries.
The theoretical background for our results comes from the Schur-Weyl
dualities that were established by Brauer in his 1937 paper "On Algebras Which
are Connected with the Semisimple Continuous Groups" for each of the three
groups in question. We suggest that Schur-Weyl duality is a powerful
mathematical concept that could be used to understand the structure of neural
networks that are equivariant to groups beyond those considered in this paper.
- Abstract(参考訳): 私たちは、機械学習の文献に欠けている3つの対称性群に対して、層が$\mathbb{r}^{n}$のテンソルパワーを持つ可能性のある全てのグループ同変ニューラルネットワークの完全な特徴付けを提供する:$o(n)$、特別な直交群である$so(n)$、シンプレクティック群である$sp(n)$。
特に、この群が$O(n)$または$SO(n)$であるとき、および群が$Sp(n)$であるときの$\mathbb{R}^{n}$のシンプレクティック基底において、そのようなテンソルパワー空間の間の学習可能で線型で同変な層函数のスパンニング集合を見つける。
我々が特徴付けるニューラルネットワークは、群同変ニューラルネットワークを構築する際に典型的要件を回避し、$\mathbb{r}^{n}$のテンソルパワー空間を既約表現に分解する必要があるため、実装が容易である。
また,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかについても述べる。
この結果の理論的背景は、1937年にブラウアーが論文"on algebras which are connected with the semi simple continuous groups"で提唱したシューア・ワイル双対性(schur-weyl dualities)から来ている。
我々は、シュール・ワイル双対性は、本論文で検討されているもの以外のグループに同値なニューラルネットワークの構造を理解するのに使用できる強力な数学的概念であることが示唆されている。
関連論文リスト
- Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - Graph Automorphism Group Equivariant Neural Networks [1.9643748953805935]
置換同変ニューラルネットワークは通常、グラフ上に存在するデータから学習するために使用される。
学習可能で線形なAut$(G)$-evariant関数の完全な特徴付けを得ることにより、Aut$(G)$と等価なニューラルネットワークを構築する方法を示す。
論文 参考訳(メタデータ) (2023-07-15T14:19:42Z) - An Algorithm for Computing with Brauer's Group Equivariant Neural
Network Layers [0.0]
本稿では,各群に対する重み行列によってベクトルを乗算するアルゴリズムを提案する。
提案手法は対称群である$S_n$に拡張され,その過程でarXiv:2303.06208のアルゴリズムが復元されることを示す。
論文 参考訳(メタデータ) (2023-04-27T13:06:07Z) - How Jellyfish Characterise Alternating Group Equivariant Neural Networks [0.0]
学習可能で線型で$A_n$-equivariantな層関数の基底は、そのようなテンソルパワー空間の間の$mathbbRn$の標準基底である。
また,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかについても述べる。
論文 参考訳(メタデータ) (2023-01-24T17:39:10Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Algebraic Aspects of Boundaries in the Kitaev Quantum Double Model [77.34726150561087]
我々は、Ksubseteq G$ の部分群に基づく境界の体系的な扱いを、バルクの Kokuev 量子倍 D(G)$ モデルで提供する。
境界サイトは$*$-subalgebra $Xisubseteq D(G)$の表現であり、その構造を強い$*$-準ホップ代数として説明する。
治療の応用として、水平方向の$K=G$と垂直方向の$K=e$に基づく境界付きパッチを調査し、量子コンピュータでどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-08-12T15:05:07Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - Learning Over-Parametrized Two-Layer ReLU Neural Networks beyond NTK [58.5766737343951]
2層ニューラルネットワークを学習する際の降下のダイナミクスについて考察する。
過度にパラメータ化された2層ニューラルネットワークは、タンジェントサンプルを用いて、ほとんどの地上で勾配損失を許容的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-09T07:09:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。