論文の概要: On Universality of Deep Equivariant Networks
- arxiv url: http://arxiv.org/abs/2510.15814v1
- Date: Fri, 17 Oct 2025 16:51:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.717951
- Title: On Universality of Deep Equivariant Networks
- Title(参考訳): 深部等変ネットワークの普遍性について
- Authors: Marco Pacini, Mircea Petrache, Bruno Lepri, Shubhendu Trivedi, Robin Walters,
- Abstract要約: 等変ニューラルネットワークの普遍性は依然として稀である。
十分な深さまたは適切な読み出し層を追加することで、同変ネットワークはエントリワイド分離可能なシステム内で普遍性が得られることを示す。
- 参考スコア(独自算出の注目度): 23.16940006451027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universality results for equivariant neural networks remain rare. Those that do exist typically hold only in restrictive settings: either they rely on regular or higher-order tensor representations, leading to impractically high-dimensional hidden spaces, or they target specialized architectures, often confined to the invariant setting. This work develops a more general account. For invariant networks, we establish a universality theorem under separation constraints, showing that the addition of a fully connected readout layer secures approximation within the class of separation-constrained continuous functions. For equivariant networks, where results are even scarcer, we demonstrate that standard separability notions are inadequate and introduce the sharper criterion of $\textit{entry-wise separability}$. We show that with sufficient depth or with the addition of appropriate readout layers, equivariant networks attain universality within the entry-wise separable regime. Together with prior results showing the failure of universality for shallow models, our findings identify depth and readout layers as a decisive mechanism for universality, additionally offering a unified perspective that subsumes and extends earlier specialized results.
- Abstract(参考訳): 等変ニューラルネットワークの普遍性は依然として稀である。
通常のテンソル表現や高階テンソル表現に頼り、不規則に高次元の隠れ空間につながるか、しばしば不変条件に制限される特殊なアーキテクチャをターゲットにしている。
この研究はより一般的な説明を生み出している。
不変ネットワークに対しては、分離制約の下で普遍性定理を確立し、完全連結な読み出し層の追加が分離制約付き連続関数のクラス内の近似を保証することを示す。
結果が不足する同変ネットワークに対しては、標準的な分離性の概念が不十分であることを示し、$\textit{entry-wise separability}$のよりシャープな基準を導入する。
十分な深さまたは適切な読み出し層を追加することで、同変ネットワークはエントリワイド分離可能なシステム内で普遍性が得られることを示す。
浅層モデルにおける普遍性の失敗を示す先行結果と合わせて,本研究は,深層と読み出し層を普遍性の決定的なメカニズムとして認識し,先行した専門的な結果を仮定し拡張する統一的な視点を提供する。
関連論文リスト
- The Inductive Bias of Convolutional Neural Networks: Locality and Weight Sharing Reshape Implicit Regularization [57.37943479039033]
本研究では,勾配降下における安定性現象によって引き起こされる暗黙の正則化に,アーキテクチャ的帰納バイアスがどう影響するかを考察する。
局所性と重量共有が根本的に変化していることが示されています。
論文 参考訳(メタデータ) (2026-03-05T04:50:51Z) - Dense Neural Networks are not Universal Approximators [53.27010448621372]
ニューラルネットワークは任意の連続関数の普遍性を持たないことを示す。
ReLUニューラルネットワークは、重みと入出力次元の自然な制約を受ける。
論文 参考訳(メタデータ) (2026-02-07T16:52:38Z) - Random-Matrix-Induced Simplicity Bias in Over-parameterized Variational Quantum Circuits [72.0643009153473]
本稿では,観測可能な期待値とパラメータ勾配の両方がシステムサイズに指数関数的に集中するHaar型普遍性クラスに,表現的変分アンサーゼが入ることを示す。
その結果、そのような回路によって誘導される仮説クラスは、近点関数の狭い族に高い確率で崩壊する。
テンソル-ネットワークベースおよびテンソル-ハイパーネットワークパラメータ化を含むテンソル構造VQCは、ハール型普遍性クラスの外にある。
論文 参考訳(メタデータ) (2026-01-05T08:04:33Z) - Drawback of Enforcing Equivariance and its Compensation via the Lens of Expressive Power [75.44625156899468]
等式および層ワイド等式ネットワークの表現性に対する等式制約の影響について検討する。
モデルのサイズが大きくなるにもかかわらず、結果として得られるアーキテクチャは、複雑さの低い仮説空間に対応できることを示した。
論文 参考訳(メタデータ) (2025-12-10T14:18:59Z) - On Universality Classes of Equivariant Networks [9.137637807153464]
分離制約を超えた同変ニューラルネットワークの近似パワーについて検討する。
分離電力が表現力を完全に捉えていないことを示す。
浅い同変ネットワークが普遍性を達成できるような設定を同定する。
論文 参考訳(メタデータ) (2025-06-02T22:07:52Z) - A Near Complete Nonasymptotic Generalization Theory For Multilayer Neural Networks: Beyond the Bias-Variance Tradeoff [57.25901375384457]
任意のリプシッツ活性化と一般リプシッツ損失関数を持つ多層ニューラルネットワークに対する漸近一般化理論を提案する。
特に、文献でよく見られるように、損失関数の有界性を必要としない。
回帰問題に対する多層ReLUネットワークに対する理論の極小最適性を示す。
論文 参考訳(メタデータ) (2025-03-03T23:34:12Z) - On the Sample Complexity of One Hidden Layer Networks with Equivariance, Locality and Weight Sharing [12.845681770287005]
重み共有、同変、局所フィルタは、ニューラルネットワークのサンプル効率に寄与していると考えられている。
局所性には一般化の利点があることが示されるが、不確実性原理は局所性と表現性の間のトレードオフを意味する。
論文 参考訳(メタデータ) (2024-11-21T16:36:01Z) - Deep Ridgelet Transform and Unified Universality Theorem for Deep and Shallow Joint-Group-Equivariant Machines [15.67299102925013]
共同群同変特徴写像を備えた学習機械に対する構成的普遍近似定理を提案する。
我々の主定理はまた、浅いネットワークと深いネットワークの両方に対する普遍近似定理を統一する。
論文 参考訳(メタデータ) (2024-05-22T14:25:02Z) - Generalization of Scaled Deep ResNets in the Mean-Field Regime [55.77054255101667]
無限深度および広帯域ニューラルネットワークの限界におけるエンスケールResNetについて検討する。
この結果から,遅延学習体制を超えた深層ResNetの一般化能力に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2024-03-14T21:48:00Z) - The Sample Complexity of One-Hidden-Layer Neural Networks [57.6421258363243]
本研究では,スカラー値を持つ一層ネットワークのクラスとユークリッドノルムで有界な入力について検討する。
隠蔽層重み行列のスペクトルノルムの制御は、一様収束を保証するには不十分であることを示す。
スペクトルノルム制御が十分であることを示す2つの重要な設定を解析する。
論文 参考訳(メタデータ) (2022-02-13T07:12:02Z) - Label-Based Diversity Measure Among Hidden Units of Deep Neural
Networks: A Regularization Method [18.72270439152708]
教師付き学習環境下での隠蔽単位の多様性を記述するために,冗長性の新たな定義を導入する。
定義された冗長性と一般化能力との間には逆の関係があることを証明する。
実験の結果, 冗長性を正規化器として用いるDNNは, オーバーフィットを効果的に低減し, 一般化誤差を低減できることがわかった。
論文 参考訳(メタデータ) (2020-09-19T04:27:44Z) - Recursive Multi-model Complementary Deep Fusion forRobust Salient Object
Detection via Parallel Sub Networks [62.26677215668959]
完全畳み込みネットワークは、正体検出(SOD)分野において優れた性能を示している。
本稿では,全く異なるネットワークアーキテクチャを持つ並列サブネットワークからなる,より広いネットワークアーキテクチャを提案する。
いくつかの有名なベンチマークの実験では、提案されたより広範なフレームワークの優れた性能、優れた一般化、強力な学習能力が明らかに示されている。
論文 参考訳(メタデータ) (2020-08-07T10:39:11Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z) - Attentive Normalization for Conditional Image Generation [126.08247355367043]
我々は、従来のインスタンス正規化の拡張である注意的正規化(AN)により、長距離依存を特徴づける。
自己注意型GANと比較して、注意的正規化はすべての位置の相関を測る必要がない。
クラス条件の画像生成とセマンティックインパインティングの実験により,提案モジュールの有効性が検証された。
論文 参考訳(メタデータ) (2020-04-08T06:12:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。