論文の概要: Parameter-free approximate equivariance for tasks with finite group symmetry
- arxiv url: http://arxiv.org/abs/2506.08244v1
- Date: Mon, 09 Jun 2025 21:23:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.76955
- Title: Parameter-free approximate equivariance for tasks with finite group symmetry
- Title(参考訳): 有限群対称性をもつタスクに対するパラメータ自由近似等式
- Authors: Riccardo Ali, Pietro Liò, Jamie Vicary,
- Abstract要約: 等価ニューラルネットワークは、グループアクションを通じて対称性を取り入れ、様々なタスクのパフォーマンスを改善するために誘導バイアスとしてそれらを埋め込む。
損失関数における追加項として、潜在表現における有限群に対して近似同値を課す単純なゼロパラメータアプローチを提案する。
提案手法を3つのデータセットにベンチマークし,既存の同変手法と比較した結果,パラメータのごく一部に対して類似あるいは良好な性能が得られた。
- 参考スコア(独自算出の注目度): 15.964726158869777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equivariant neural networks incorporate symmetries through group actions, embedding them as an inductive bias to improve performance on a wide variety of tasks. However, existing equivariant methods can be computationally intensive, with high parameter counts, and are often tied to a specific architecture. We propose a simple zero-parameter approach that imposes approximate equivariance for a finite group in the latent representation, as an additional term in the loss function. We conduct experiments which allow the network to learn a group representation on the latent space, and show in every case it prefers to learn the regular representation. Fixing this action on the latent space, this yields a simple method to impose approximate equivariance as an additional loss penalty. We benchmark our approach on three datasets and compare it against several existing equivariant methods, showing that in many cases it achieves similar or better performance for a fraction of the parameters.
- Abstract(参考訳): 等価ニューラルネットワークは、グループアクションを通じて対称性を取り入れ、様々なタスクのパフォーマンスを改善するために誘導バイアスとしてそれらを埋め込む。
しかし、既存の同変法は高いパラメータ数を持つ計算集約性があり、しばしば特定のアーキテクチャに結びついている。
損失関数における追加項として、潜在表現における有限群に対して近似同値を課す単純な零パラメータアプローチを提案する。
我々は,ネットワークが潜在空間上の群表現を学習できる実験を行い,正規表現を学習したい場合すべてを示す。
この作用を潜在空間に固定すると、この方法により、近似同値を追加の損失ペナルティとして課す単純な方法が得られる。
我々は3つのデータセットのアプローチをベンチマークし、既存の同変手法と比較し、多くの場合、パラメータのごく一部について類似またはより良い性能が得られることを示す。
関連論文リスト
- Probing Equivariance and Symmetry Breaking in Convolutional Networks [3.241907749876342]
textttRapidashは、同変および非同変モデルの異なる変種を可能にする統一群畳み込みアーキテクチャである。
この結果から, より制約のある同変モデルの方が, タスクの幾何に整合すると, より制約の少ない代替モデルより優れていることが示唆された。
論文 参考訳(メタデータ) (2025-01-01T07:00:41Z) - Symmetry Breaking and Equivariant Neural Networks [17.740760773905986]
我々は「緩和された同注入」という新しい概念を導入する。
我々は、この緩和を同変多層パーセプトロン(E-MLP)に組み込む方法を示す。
対称性の破れの関連性は、様々な応用領域で議論される。
論文 参考訳(メタデータ) (2023-12-14T15:06:48Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Learning Probabilistic Symmetrization for Architecture Agnostic Equivariance [16.49488981364657]
群対称性を持つ学習関数における同変アーキテクチャの限界を克服する新しい枠組みを提案する。
我々は、不変量や変圧器のような任意の基底モデルを使用し、それを与えられた群に同変するように対称性付けする。
実証実験は、調整された同変アーキテクチャに対する競争結果を示す。
論文 参考訳(メタデータ) (2023-06-05T13:40:54Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Architectural Optimization over Subgroups for Equivariant Neural
Networks [0.0]
準同値緩和同型と$[G]$-mixed同変層を提案し、部分群上の同値制約で演算する。
進化的および微分可能なニューラルアーキテクチャ探索(NAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-11T14:37:29Z) - Relaxing Equivariance Constraints with Non-stationary Continuous Filters [20.74154804898478]
提案したパラメータ化は、ニューラルネットワークの調整可能な対称性構造を可能にするビルディングブロックと考えることができる。
CIFAR-10 および CIFAR-100 画像分類タスクにおいて, ソフトな等式が試験精度の向上につながることを実験的に検証した。
論文 参考訳(メタデータ) (2022-04-14T18:08:36Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Meta-Learning Symmetries by Reparameterization [63.85144439337671]
データから対応するパラメータ共有パターンを学習し、等価性をネットワークに学習し、符号化する手法を提案する。
本実験は,画像処理タスクで使用される共通変換に等価性をエンコードして自動的に学習できることを示唆する。
論文 参考訳(メタデータ) (2020-07-06T17:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。