論文の概要: An Algorithm for Computing with Brauer's Group Equivariant Neural
Network Layers
- arxiv url: http://arxiv.org/abs/2304.14165v1
- Date: Thu, 27 Apr 2023 13:06:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 13:29:59.623631
- Title: An Algorithm for Computing with Brauer's Group Equivariant Neural
Network Layers
- Title(参考訳): Brauer's Group Equivariant Neural Network Layers を用いた計算アルゴリズム
- Authors: Edward Pearce-Crump
- Abstract要約: 本稿では,各群に対する重み行列によってベクトルを乗算するアルゴリズムを提案する。
提案手法は対称群である$S_n$に拡張され,その過程でarXiv:2303.06208のアルゴリズムが復元されることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The learnable, linear neural network layers between tensor power spaces of
$\mathbb{R}^{n}$ that are equivariant to the orthogonal group, $O(n)$, the
special orthogonal group, $SO(n)$, and the symplectic group, $Sp(n)$, were
characterised in arXiv:2212.08630. We present an algorithm for multiplying a
vector by any weight matrix for each of these groups, using category theoretic
constructions to implement the procedure. We achieve a significant reduction in
computational cost compared with a naive implementation by making use of
Kronecker product matrices to perform the multiplication. We show that our
approach extends to the symmetric group, $S_n$, recovering the algorithm of
arXiv:2303.06208 in the process.
- Abstract(参考訳): 学習可能で線形なニューラルネットワーク層は、直交群、o(n)$、特別な直交群、$so(n)$、シンプレクティック群、$sp(n)$に同値な$\mathbb{r}^{n}$のテンソルパワー空間の間に存在し、arxiv:2212.08630で特徴付けられる。
本稿では,各群に対して任意の重み行列でベクトルを乗算するアルゴリズムを提案する。
クロネッカー積行列を用いて乗算を行うことにより,計算コストの大幅な削減を実現する。
このアプローチは対称群$s_n$まで拡張され、arxiv:2303.06208のアルゴリズムを復元する。
関連論文リスト
- Do you know what q-means? [50.045011844765185]
クラスタリングは、大規模なデータセットを分析する上で最も重要なツールの1つである。
クラスタリングのための"$q$-means"アルゴリズムの改良版を提案する。
また、$Obig(frack2varepsilon2(sqrtkd + log(Nd))big で実行される $varepsilon に対する "dequantized" アルゴリズムも提示する。
論文 参考訳(メタデータ) (2023-08-18T17:52:12Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Discovering Sparse Representations of Lie Groups with Machine Learning [55.41644538483948]
本手法はローレンツ群の生成元の正準表現を再現することを示す。
このアプローチは完全に一般であり、任意のリー群に対する無限小生成元を見つけるのに使うことができる。
論文 参考訳(メタデータ) (2023-02-10T17:12:05Z) - How Jellyfish Characterise Alternating Group Equivariant Neural Networks [0.0]
学習可能で線型で$A_n$-equivariantな層関数の基底は、そのようなテンソルパワー空間の間の$mathbbRn$の標準基底である。
また,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかについても述べる。
論文 参考訳(メタデータ) (2023-01-24T17:39:10Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Brauer's Group Equivariant Neural Networks [0.0]
我々は、層が$mathbbRn$のテンソルパワーを持つような全ての可能な群同変ニューラルネットワークの完全な特徴付けを提供する。
そのようなテンソルパワー空間間の学習可能、線型、等変層関数に対する行列の分散集合を求める。
論文 参考訳(メタデータ) (2022-12-16T18:08:51Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - Householder Dice: A Matrix-Free Algorithm for Simulating Dynamics on
Gaussian and Random Orthogonal Ensembles [12.005731086591139]
Householder Dice (HD) は、高密度ランダム行列アンサンブルのダイナミクスを翻訳不変特性でシミュレートするアルゴリズムである。
HDアルゴリズムのメモリとコストはそれぞれ$mathcalO(nT)$と$mathcalO(nT2)$である。
数値結果は、高次元ランダムシステムの研究における新しい計算ツールとしてのHDアルゴリズムの約束を示しています。
論文 参考訳(メタデータ) (2021-01-19T04:50:53Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。