論文の概要: Quantitative Approximation Rates for Group Equivariant Learning
- arxiv url: http://arxiv.org/abs/2602.20370v1
- Date: Mon, 23 Feb 2026 21:17:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.534564
- Title: Quantitative Approximation Rates for Group Equivariant Learning
- Title(参考訳): 群同変学習のための定量的近似率
- Authors: Jonathan W. Siegel, Snir Hordan, Hannah Lawrence, Ali Syed, Nadav Dym,
- Abstract要約: 等サイズのReLUと等変アーキテクチャは等変関数に対して等しく表現可能であることを示す。
全体として、同じ大きさのReLUと同変アーキテクチャは同変関数に対して等しく表現可能であることを示す。
- 参考スコア(独自算出の注目度): 27.113416094256262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The universal approximation theorem establishes that neural networks can approximate any continuous function on a compact set. Later works in approximation theory provide quantitative approximation rates for ReLU networks on the class of $α$-Hölder functions $f: [0,1]^N \to \mathbb{R}$. The goal of this paper is to provide similar quantitative approximation results in the context of group equivariant learning, where the learned $α$-Hölder function is known to obey certain group symmetries. While there has been much interest in the literature in understanding the universal approximation properties of equivariant models, very few quantitative approximation results are known for equivariant models. In this paper, we bridge this gap by deriving quantitative approximation rates for several prominent group-equivariant and invariant architectures. The architectures that we consider include: the permutation-invariant Deep Sets architecture; the permutation-equivariant Sumformer and Transformer architectures; joint invariance to permutations and rigid motions using invariant networks based on frame averaging; and general bi-Lipschitz invariant models. Overall, we show that equally-sized ReLU MLPs and equivariant architectures are equally expressive over equivariant functions. Thus, hard-coding equivariance does not result in a loss of expressivity or approximation power in these models.
- Abstract(参考訳): 普遍近似定理は、ニューラルネットワークがコンパクトな集合上の任意の連続函数を近似することができることを証明している。
後に近似理論における研究は、$α$-ヘルダー函数のクラス上のReLUネットワークに対する定量的近似率を$f: [0,1]^N \to \mathbb{R}$で提供する。
この論文の目的は、学習された$α$-ヘルダー関数がある種の群対称性に従うことが知られている群同変学習の文脈において、同様の定量的な近似結果を提供することである。
同変モデルの普遍近似特性を理解することに、文献に多くの関心が寄せられているが、同変モデルの定量的近似結果はほとんど知られていない。
本稿では,いくつかの顕著な群同変および不変アーキテクチャに対する定量的近似率の導出により,このギャップを埋める。
私たちが考慮するアーキテクチャは、置換不変のDeep Setsアーキテクチャ、置換同変のSumformerおよびTransformerアーキテクチャ、フレーム平均化に基づく不変ネットワークを用いた置換と剛性運動への結合不変性、および一般的なバイリプシッツ不変モデルである。
全体として、同じ大きさのReLU MLPと同変アーキテクチャは同変関数に対して等しく表現可能であることを示す。
したがって、ハードコーディングの等価性は、これらのモデルにおける表現力や近似力の損失をもたらすことはない。
関連論文リスト
- Decomposition of Equivariant Maps via Invariant Maps: Application to Universal Approximation under Symmetry [3.0518581575184225]
我々は、群 $G$ に関する不変写像と同変写像の関係の理論を発展させる。
我々は、この理論をグループ対称性を持つディープニューラルネットワークの文脈で活用し、それらのメカニズムに関する新たな洞察を得る。
論文 参考訳(メタデータ) (2024-09-25T13:27:41Z) - Approximately Equivariant Neural Processes [47.14384085714576]
実世界のデータをモデル化する場合、学習問題は必ずしも同変ではなく、概ね同変であることが多い。
これを達成するための現在のアプローチは、通常任意のアーキテクチャや対称性群に対して最初から適用することはできない。
我々は、既存の同変アーキテクチャを用いてこれを実現するための一般的なアプローチを開発する。
論文 参考訳(メタデータ) (2024-06-19T12:17:14Z) - Lie Group Decompositions for Equivariant Neural Networks [12.139222986297261]
コンボリューションカーネルをパラメータ化してアフィン変換に対する同変モデルを構築する方法を示す。
我々は,ベンチマークアフィン不変分類タスクにおいて,モデルのロバスト性と分布外一般化能力を評価する。
論文 参考訳(メタデータ) (2023-10-17T16:04:33Z) - Learning Probabilistic Symmetrization for Architecture Agnostic Equivariance [16.49488981364657]
群対称性を持つ学習関数における同変アーキテクチャの限界を克服する新しい枠組みを提案する。
我々は、不変量や変圧器のような任意の基底モデルを使用し、それを与えられた群に同変するように対称性付けする。
実証実験は、調整された同変アーキテクチャに対する競争結果を示す。
論文 参考訳(メタデータ) (2023-06-05T13:40:54Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。