論文の概要: Categorification of Group Equivariant Neural Networks
- arxiv url: http://arxiv.org/abs/2304.14144v1
- Date: Thu, 27 Apr 2023 12:39:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 13:29:38.795757
- Title: Categorification of Group Equivariant Neural Networks
- Title(参考訳): グループ同変ニューラルネットワークの分類
- Authors: Edward Pearce-Crump
- Abstract要約: 群同変ニューラルネットワークの線形層関数の理解と操作にカテゴリ理論をどのように利用できるかを示す。
カテゴリー論的構成を用いることで、これらのニューラルネットワークの元々の定式化には見られないよりリッチな構造を構築する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel application of category theory for deep learning. We show
how category theory can be used to understand and work with the linear layer
functions of group equivariant neural networks whose layers are some tensor
power space of $\mathbb{R}^{n}$ for the groups $S_n$, $O(n)$, $Sp(n)$, and
$SO(n)$. By using category theoretic constructions, we build a richer structure
that is not seen in the original formulation of these neural networks, leading
to new insights. In particular, we outline the development of an algorithm for
quickly computing the result of a vector that is passed through an equivariant,
linear layer for each group in question. The success of our approach suggests
that category theory could be beneficial for other areas of deep learning.
- Abstract(参考訳): 深層学習におけるカテゴリ理論の新しい応用法を提案する。
群 $S_n$, $O(n)$, $Sp(n)$, $SO(n)$ に対して、あるテンソルパワー空間が $\mathbb{R}^{n}$ であるような群同変ニューラルネットワークの線形層関数をどのように理解して扱うことができるかを示す。
カテゴリー論的構造を用いることで、これらのニューラルネットワークの元々の定式化には見られないよりリッチな構造を構築し、新たな洞察をもたらす。
特に,各群に対して等変線形層を通過するベクトルの結果を高速に計算するアルゴリズムの開発について概説する。
このアプローチの成功は、カテゴリ理論がディープラーニングの他の領域に有益であることを示唆している。
関連論文リスト
- An Algorithm for Computing with Brauer's Group Equivariant Neural
Network Layers [0.0]
本稿では,各群に対する重み行列によってベクトルを乗算するアルゴリズムを提案する。
提案手法は対称群である$S_n$に拡張され,その過程でarXiv:2303.06208のアルゴリズムが復元されることを示す。
論文 参考訳(メタデータ) (2023-04-27T13:06:07Z) - Noncommutative $C^*$-algebra Net: Learning Neural Networks with Powerful Product Structure in $C^*$-algebra [5.359060261460183]
この非可換構造はニューラルネットワークの学習において強力な効果をもたらすことを示す。
私たちのフレームワークは、複数の関連するニューラルネットワークを相互に同時に学習したり、同変の特徴を学習するなど、幅広い用途を持っています。
論文 参考訳(メタデータ) (2023-01-26T14:35:37Z) - How Jellyfish Characterise Alternating Group Equivariant Neural Networks [0.0]
学習可能で線型で$A_n$-equivariantな層関数の基底は、そのようなテンソルパワー空間の間の$mathbbRn$の標準基底である。
また,本手法が局所対称性に同値なニューラルネットワークの構築にどのように一般化するかについても述べる。
論文 参考訳(メタデータ) (2023-01-24T17:39:10Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。