論文の概要: On Universality Classes of Equivariant Networks
- arxiv url: http://arxiv.org/abs/2506.02293v1
- Date: Mon, 02 Jun 2025 22:07:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.1008
- Title: On Universality Classes of Equivariant Networks
- Title(参考訳): 等変ネットワークの普遍性クラスについて
- Authors: Marco Pacini, Gabriele Santin, Bruno Lepri, Shubhendu Trivedi,
- Abstract要約: 分離制約を超えた同変ニューラルネットワークの近似パワーについて検討する。
分離電力が表現力を完全に捉えていないことを示す。
浅い同変ネットワークが普遍性を達成できるような設定を同定する。
- 参考スコア(独自算出の注目度): 9.137637807153464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equivariant neural networks provide a principled framework for incorporating symmetry into learning architectures and have been extensively analyzed through the lens of their separation power, that is, the ability to distinguish inputs modulo symmetry. This notion plays a central role in settings such as graph learning, where it is often formalized via the Weisfeiler-Leman hierarchy. In contrast, the universality of equivariant models-their capacity to approximate target functions-remains comparatively underexplored. In this work, we investigate the approximation power of equivariant neural networks beyond separation constraints. We show that separation power does not fully capture expressivity: models with identical separation power may differ in their approximation ability. To demonstrate this, we characterize the universality classes of shallow invariant networks, providing a general framework for understanding which functions these architectures can approximate. Since equivariant models reduce to invariant ones under projection, this analysis yields sufficient conditions under which shallow equivariant networks fail to be universal. Conversely, we identify settings where shallow models do achieve separation-constrained universality. These positive results, however, depend critically on structural properties of the symmetry group, such as the existence of adequate normal subgroups, which may not hold in important cases like permutation symmetry.
- Abstract(参考訳): 等変型ニューラルネットワークは、対称性を学習アーキテクチャに組み込むための原則的な枠組みを提供し、その分離パワーのレンズ、すなわち入力をモジュロ対称性と区別する能力を通じて広範囲に分析されてきた。
この概念は、Weisfeiler-Leman階層を通じて形式化されることが多いグラフ学習のような設定において中心的な役割を果たす。
対照的に、同変モデルの普遍性 - ターゲット関数を近似するためのキャパシティ-は、相対的に過小評価されている。
本研究では,分離制約を超えた同変ニューラルネットワークの近似能力について検討する。
分離パワーが完全に表現力を捉えるわけではないことを示し、分離パワーが同一のモデルでは近似能力が異なる可能性があることを示す。
これを示すために、浅い不変ネットワークの普遍性クラスを特徴付け、これらのアーキテクチャがどの機能を近似できるかを理解するための一般的なフレームワークを提供する。
同変モデルは射影の下で不変なものに還元されるので、この解析は浅い同変ネットワークが普遍的でない十分な条件をもたらす。
逆に、浅いモデルが分離制約付き普遍性を達成できるような設定を特定する。
しかし、これらの正の結果は、適切な正規部分群の存在のような対称性群の構造的性質に大きく依存しており、置換対称性のような重要な場合では成り立たない。
関連論文リスト
- Separation Power of Equivariant Neural Networks [11.906285279109477]
我々は、畳み込みや置換不変ネットワークなどの同変ニューラルネットワークの分離パワーを解析する。
ReLUやシグモイドを含む全ての非ポリノミカルな活性化は、表現力において等価であり、最大分離力に達する。
論文 参考訳(メタデータ) (2024-06-13T09:52:44Z) - A Characterization Theorem for Equivariant Networks with Point-wise
Activations [13.00676132572457]
回転同変ネットワークは、連結コンパクト群に対して同変である任意のネットワークに対してのみ不変であることを示す。
本稿では, 畳み込み可能な畳み込み型ニューラルネットワークの特徴空間が, 自明な表現であることを示す。
論文 参考訳(メタデータ) (2024-01-17T14:30:46Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Equivariance and generalization in neural networks [0.0]
ネットワーク特性間の翻訳的等式を組み込んだ結果に焦点をあてる。
等変ネットワークの利点は、複素スカラー場の理論を研究することによって実証される。
ほとんどのタスクにおいて、最良の同変アーキテクチャは、非同変アーキテクチャよりもはるかに優れた性能と一般化を達成できる。
論文 参考訳(メタデータ) (2021-12-23T12:38:32Z) - Generalization capabilities of neural networks in lattice applications [0.0]
翻訳等変ニューラルネットワークを用いた非同変ニューラルネットワークの利点について検討する。
我々の最良の同変アーキテクチャは、その非同変アーキテクチャよりも大幅に性能を向上し、一般化できることが示される。
論文 参考訳(メタデータ) (2021-12-23T11:48:06Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Exact solutions of interacting dissipative systems via weak symmetries [77.34726150561087]
我々は任意の強い相互作用や非線形性を持つクラスマルコフ散逸系(英語版)のリウヴィリアンを解析的に対角化する。
これにより、フルダイナミックスと散逸スペクトルの正確な記述が可能になる。
我々の手法は他の様々なシステムに適用でき、複雑な駆動散逸量子系の研究のための強力な新しいツールを提供することができる。
論文 参考訳(メタデータ) (2021-09-27T17:45:42Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Generalization capabilities of translationally equivariant neural
networks [0.0]
本研究では,2次元格子上の複素スカラー場理論に着目し,群同変畳み込みニューラルネットワークアーキテクチャの利点について検討する。
有意義な比較のために、同値および非同値ニューラルネットワークアーキテクチャを体系的に探索し、様々な回帰および分類タスクに適用する。
我々の最善の同変アーキテクチャは、それらの非同変アーキテクチャよりも相当よく機能し、一般化できることを実証する。
論文 参考訳(メタデータ) (2021-03-26T18:53:36Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Coupling-based Invertible Neural Networks Are Universal Diffeomorphism
Approximators [72.62940905965267]
結合フロー(CF-INN)に基づく可逆ニューラルネットワークは、画像合成や表現学習など、さまざまな機械学習応用を有する。
CF-INNは可逆関数に対する普遍近似器か?
我々は、ある微分同相類に対する普遍性の同値性を示す一般的な定理を証明する。
論文 参考訳(メタデータ) (2020-06-20T02:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。