論文の概要: Universal Equivariant Multilayer Perceptrons
- arxiv url: http://arxiv.org/abs/2002.02912v2
- Date: Wed, 24 Jun 2020 22:28:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 03:25:13.396317
- Title: Universal Equivariant Multilayer Perceptrons
- Title(参考訳): 普遍同変多層パーセプトロン
- Authors: Siamak Ravanbakhsh
- Abstract要約: 群不変および同変多層パーセプトロン(MLP)は、様々なデータ構造を学習する上で大きな成功を収めた。
この論文は、単一の隠蔽層を持つ広いクラスの同変の普遍性を証明している。
- 参考スコア(独自算出の注目度): 16.918979537914304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Group invariant and equivariant Multilayer Perceptrons (MLP), also known as
Equivariant Networks, have achieved remarkable success in learning on a variety
of data structures, such as sequences, images, sets, and graphs. Using tools
from group theory, this paper proves the universality of a broad class of
equivariant MLPs with a single hidden layer. In particular, it is shown that
having a hidden layer on which the group acts regularly is sufficient for
universal equivariance (invariance). A corollary is unconditional universality
of equivariant MLPs for Abelian groups, such as CNNs with a single hidden
layer. A second corollary is the universality of equivariant MLPs with a
high-order hidden layer, where we give both group-agnostic bounds and means for
calculating group-specific bounds on the order of hidden layer that guarantees
universal equivariance (invariance).
- Abstract(参考訳): 群不変量および同変多層パーセプトロン(mlp)は同変ネットワークとしても知られ、シーケンス、画像、集合、グラフといった様々なデータ構造の学習において顕著な成功を収めている。
群論のツールを用いて、本論文は単一の隠れ層を持つ多種多様な同変mlpの普遍性を証明する。
特に、群が定期的に作用する隠れた層を持つことは普遍同値(不変性)に十分であることを示す。
圏は、単一の隠れ層を持つCNNのようなアベリア群に対する同変 MLP の非条件普遍性である。
第2の系は、高階隠れ層を持つ同変 MLP の普遍性であり、群非依存境界と、普遍同分散(不変性)を保証する隠蔽層の順序に対する群固有の境界を計算する手段を与える。
関連論文リスト
- Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
しかし、スプライン関数は、機械学習において重要な事前知識であるタスクの対称性を尊重しないかもしれない。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Unified Universality Theorem for Deep and Shallow Joint-Group-Equivariant Machines [15.67299102925013]
共同群同変特徴写像を備えた学習機械に対する構成的普遍近似定理を提案する。
我々の主定理はまた、浅いネットワークと深いネットワークの両方に対する普遍近似定理を統一する。
論文 参考訳(メタデータ) (2024-05-22T14:25:02Z) - Efficient Model-Agnostic Multi-Group Equivariant Networks [18.986283562123713]
2つの関連する問題に対して、効率的なモデルに依存しない同変設計を提供する。
1つは、複数の入力を持つネットワークで、それぞれ異なるグループによって作用する可能性があり、もう1つは単一の入力であるが、その上で作用するグループは大きな製品グループである。
等変モデルはそのような変換に対して堅牢であり、それ以外は競合的に実行可能である。
論文 参考訳(メタデータ) (2023-10-14T22:24:26Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - Universal Approximation Theorem for Equivariant Maps by Group CNNs [14.810452619505137]
本稿では,CNNによる同値写像の普遍近似定理の統一手法を提案する。
その大きな利点として、非コンパクト群に対する無限次元空間間の非線形同変写像を扱うことができる。
論文 参考訳(メタデータ) (2020-12-27T07:09:06Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Error Bounds for Generalized Group Sparsity [8.557485533942337]
二重空間正規化の異なる形式に対する一貫性と収束率の結果が得られることが証明された1つの普遍定理を述べる。
解析により,2重空間正規化のための双対定式化を提供する,$epsilon$-normの一般化ノルムが同定される。
論文 参考訳(メタデータ) (2020-08-08T03:52:05Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。