論文の概要: GLGENN: A Novel Parameter-Light Equivariant Neural Networks Architecture Based on Clifford Geometric Algebras
- arxiv url: http://arxiv.org/abs/2506.09625v1
- Date: Wed, 11 Jun 2025 11:32:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.885375
- Title: GLGENN: A Novel Parameter-Light Equivariant Neural Networks Architecture Based on Clifford Geometric Algebras
- Title(参考訳): GLGENN:Clifford Geometric Algebrasに基づく新しいパラメータ-光同変ニューラルネットワークアーキテクチャ
- Authors: Ekaterina Filimoshina, Dmitry Shirokov,
- Abstract要約: 一般化リプシッツ群同変ニューラルネットワーク(GLGENN)という,幾何代数に基づく同変ニューラルネットワークの新しいアーキテクチャを提案し,実装し,比較する。
これらのネットワークは、任意の非退化あるいは対称双線型形式を持つベクトル空間の回転や反射を含むすべての擬直交変換に同値である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose, implement, and compare with competitors a new architecture of equivariant neural networks based on geometric (Clifford) algebras: Generalized Lipschitz Group Equivariant Neural Networks (GLGENN). These networks are equivariant to all pseudo-orthogonal transformations, including rotations and reflections, of a vector space with any non-degenerate or degenerate symmetric bilinear form. We propose a weight-sharing parametrization technique that takes into account the fundamental structures and operations of geometric algebras. Due to this technique, GLGENN architecture is parameter-light and has less tendency to overfitting than baseline equivariant models. GLGENN outperforms or matches competitors on several benchmarking equivariant tasks, including estimation of an equivariant function and a convex hull experiment, while using significantly fewer optimizable parameters.
- Abstract(参考訳): 一般リプシッツ群同変ニューラルネットワーク(GLGENN)の幾何学的(クリフォード)代数に基づく同変ニューラルネットワークの新しいアーキテクチャを提案し,実装し,比較する。
これらのネットワークは、任意の非退化あるいは退化対称双線型形式を持つベクトル空間の回転や反射を含むすべての擬直交変換に同値である。
幾何代数の基本構造と演算を考慮に入れた重み分担パラメトリゼーション手法を提案する。
この手法により、GLGENNアーキテクチャはパラメータライトであり、ベースライン同変モデルよりも過度に適合する傾向が低い。
GLGENNは、等変関数の推定や凸船体実験など、いくつかのベンチマーク等変タスクにおいて、最適化可能なパラメータをはるかに少なく使用しながら、競合よりも優れているか、あるいは一致している。
関連論文リスト
- Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
我々は任意の行列群同変をkanに組み込む方法であるEquivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
EKANは、粒子散乱や3体問題といった対称性に関連したタスクにおいて、より小さなデータセットやより少ないパラメータで高い精度を達成する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Optimization Dynamics of Equivariant and Augmented Neural Networks [2.7918308693131135]
対称データに基づくニューラルネットワークの最適化について検討する。
アーキテクチャを制約する戦略を、データ拡張を使用する戦略と同等に扱う戦略と比較する。
後者の状況においても, 定常点が拡張トレーニングにおいて不安定であることは明らかだが, 明らかな同変モデルに対しては安定である。
論文 参考訳(メタデータ) (2023-03-23T17:26:12Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - Architectural Optimization over Subgroups for Equivariant Neural
Networks [0.0]
準同値緩和同型と$[G]$-mixed同変層を提案し、部分群上の同値制約で演算する。
進化的および微分可能なニューラルアーキテクチャ探索(NAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-11T14:37:29Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Generalization capabilities of translationally equivariant neural
networks [0.0]
本研究では,2次元格子上の複素スカラー場理論に着目し,群同変畳み込みニューラルネットワークアーキテクチャの利点について検討する。
有意義な比較のために、同値および非同値ニューラルネットワークアーキテクチャを体系的に探索し、様々な回帰および分類タスクに適用する。
我々の最善の同変アーキテクチャは、それらの非同変アーキテクチャよりも相当よく機能し、一般化できることを実証する。
論文 参考訳(メタデータ) (2021-03-26T18:53:36Z) - Lorentz Group Equivariant Neural Network for Particle Physics [58.56031187968692]
ローレンツ群の下での変換に関して完全に同値なニューラルネットワークアーキテクチャを提案する。
素粒子物理学における分類問題に対して、そのような同変構造は、比較的学習可能なパラメータの少ない非常に単純なモデルをもたらすことを実証する。
論文 参考訳(メタデータ) (2020-06-08T17:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。