論文の概要: Statistical Learning Guarantees for Group-Invariant Barron Functions
- arxiv url: http://arxiv.org/abs/2509.23474v1
- Date: Sat, 27 Sep 2025 19:52:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.251213
- Title: Statistical Learning Guarantees for Group-Invariant Barron Functions
- Title(参考訳): 群不変バロン関数の統計的学習保証
- Authors: Yahong Yang, Wei Zhu,
- Abstract要約: 群不変構造は群依存因子 $delta_G,Gamma,sigma le 1$ を近似率に導入する。
ニューラルネットワークにおける群不変構造を符号化することで、対称目標関数の統計的利点が明らかになることを示す。
- 参考スコア(独自算出の注目度): 8.94770625611836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the generalization error of group-invariant neural networks within the Barron framework. Our analysis shows that incorporating group-invariant structures introduces a group-dependent factor $\delta_{G,\Gamma,\sigma} \le 1$ into the approximation rate. When this factor is small, group invariance yields substantial improvements in approximation accuracy. On the estimation side, we establish that the Rademacher complexity of the group-invariant class is no larger than that of the non-invariant counterpart, implying that the estimation error remains unaffected by the incorporation of symmetry. Consequently, the generalization error can improve significantly when learning functions with inherent group symmetries. We further provide illustrative examples demonstrating both favorable cases, where $\delta_{G,\Gamma,\sigma}\approx |G|^{-1}$, and unfavorable ones, where $\delta_{G,\Gamma,\sigma}\approx 1$. Overall, our results offer a rigorous theoretical foundation showing that encoding group-invariant structures in neural networks leads to clear statistical advantages for symmetric target functions.
- Abstract(参考訳): 本稿では,Barronフレームワーク内での群不変ニューラルネットワークの一般化誤差について検討する。
解析により、群不変構造を組み込むことで、群依存因子 $\delta_{G,\Gamma,\sigma} \le 1$ が近似率に導入されることが示された。
この因子が小さい場合、群不変性は近似精度を大幅に改善する。
推定側では、群不変クラスのラデマッハ複雑性が非不変クラスよりも大きくないことを確立し、この推定誤差が対称性の包含による影響を受けないことを示唆する。
これにより、固有群対称性を持つ関数の学習において、一般化誤差が大幅に向上する。
さらに、$\delta_{G,\Gamma,\sigma}\approx |G|^{-1}$ と $\delta_{G,\Gamma,\sigma}\approx 1$ のどちらが好ましいかを示す図示的な例を示す。
全体として、ニューラルネットワークにおける群不変構造を符号化することは、対称的対象関数に対して明確な統計的優位性をもたらすことを示す厳密な理論的基盤を提供する。
関連論文リスト
- Equivariant score-based generative models provably learn distributions with symmetries efficiently [7.90752151686317]
実験的な研究により、対称性を生成モデルに組み込むことで、より優れた一般化とサンプリング効率が得られることが示されている。
我々は,ある群対称性に対して不変な分布を学習するためのスコアベース生成モデル(SGM)の最初の理論的解析と保証を提供する。
論文 参考訳(メタデータ) (2024-10-02T05:14:28Z) - Lie Group Decompositions for Equivariant Neural Networks [12.139222986297261]
コンボリューションカーネルをパラメータ化してアフィン変換に対する同変モデルを構築する方法を示す。
我々は,ベンチマークアフィン不変分類タスクにおいて,モデルのロバスト性と分布外一般化能力を評価する。
論文 参考訳(メタデータ) (2023-10-17T16:04:33Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - On the Sample Complexity of Learning with Geometric Stability [42.813141600050166]
対象関数がそのような不変性や安定性を示す学習問題のサンプル複雑性について検討する。
カーネル法における非パラメトリック収束率と,グループの大きさに等しい因子によるサンプル複雑性の改善について述べる。
論文 参考訳(メタデータ) (2021-06-14T03:51:16Z) - Learning with invariances in random features and kernel models [19.78800773518545]
モデルには不変な乱数特徴と不変なカーネルメソッドの2つのクラスを導入する。
サンプルサイズと非表示単位の数が寸法の推定値としてスケールする高次元状態における不変メソッドのテスト誤差を特徴づける。
アーキテクチャにおける不変性を利用すると、サンプルサイズの$dalpha$ factor($d$は次元を表す)と、非構造化アーキテクチャと同じテストエラーを達成するために隠されたユニットの数を節約できることを示す。
論文 参考訳(メタデータ) (2021-02-25T23:06:21Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。