論文の概要: Equivariant Neural Networks for General Linear Symmetries on Lie Algebras
- arxiv url: http://arxiv.org/abs/2510.22984v1
- Date: Mon, 27 Oct 2025 04:08:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.444841
- Title: Equivariant Neural Networks for General Linear Symmetries on Lie Algebras
- Title(参考訳): リー代数上の一般線形対称性に対する同変ニューラルネットワーク
- Authors: Chankyo Kim, Sicheng Zhao, Minghan Zhu, Tzu-Yuan Lin, Maani Ghaffari,
- Abstract要約: 還元性リーニューロン(Reducetive Lie Neurons, ReLNs)は、一般線形対称性と全く同じ種類の新しいニューラルネットワークアーキテクチャである。
ReLNは、一般的なn-by-n行列を含む幅広い構造化された入力を直接操作する。
タスクの範囲でReLNの汎用性を検証する。
- 参考スコア(独自算出の注目度): 25.10734775893243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Encoding symmetries is a powerful inductive bias for improving the generalization of deep neural networks. However, most existing equivariant models are limited to simple symmetries like rotations, failing to address the broader class of general linear transformations, GL(n), that appear in many scientific domains. We introduce Reductive Lie Neurons (ReLNs), a novel neural network architecture exactly equivariant to these general linear symmetries. ReLNs are designed to operate directly on a wide range of structured inputs, including general n-by-n matrices. ReLNs introduce a novel adjoint-invariant bilinear layer to achieve stable equivariance for both Lie-algebraic features and matrix-valued inputs, without requiring redesign for each subgroup. This architecture overcomes the limitations of prior equivariant networks that only apply to compact groups or simple vector data. We validate ReLNs' versatility across a spectrum of tasks: they outperform existing methods on algebraic benchmarks with sl(3) and sp(4) symmetries and achieve competitive results on a Lorentz-equivariant particle physics task. In 3D drone state estimation with geometric uncertainty, ReLNs jointly process velocities and covariances, yielding significant improvements in trajectory accuracy. ReLNs provide a practical and general framework for learning with broad linear group symmetries on Lie algebras and matrix-valued data. Project page: https://reductive-lie-neuron.github.io/
- Abstract(参考訳): 対称性の符号化は、ディープニューラルネットワークの一般化を改善するための強力な誘導バイアスである。
しかし、既存の同変モデルは回転のような単純な対称性に限られており、多くの科学領域に現れる一般線型変換のより広範なクラス GL(n) に対応できない。
本稿では,これらの一般線形対称性に準同する新しいニューラルネットワークアーキテクチャであるReducetive Lie Neurons (ReLNs)を紹介する。
ReLNは、一般的なn-by-n行列を含む幅広い構造化された入力を直接操作するように設計されている。
ReLN は新しい随伴不変双線型層を導入し、各部分群の再設計を必要とせず、リー代数的特徴と行列値入力の両方に対して安定な同値性を実現する。
このアーキテクチャは、コンパクト群や単純なベクトルデータにのみ適用される以前の同変ネットワークの制限を克服する。
sl(3) とsp(4) 対称性を持つ代数的ベンチマークにおいて既存の手法よりも優れており、ローレンツ等変粒子物理タスクにおいて競合的な結果が得られる。
幾何学的不確実性を伴う3次元ドローン状態推定では、ReLNは共同で速度と共分散を処理し、軌道精度を大幅に向上させる。
ReLNsはリー代数と行列値データに関する幅広い線形群対称性を用いて学習するための実用的で一般的なフレームワークを提供する。
プロジェクトページ: https://reductive-lie-neuron.github.io/
関連論文リスト
- Explicit Discovery of Nonlinear Symmetries from Dynamic Data [50.20526548924647]
LieNLSDは非線形項の無限小生成器の数とその明示的な表現を決定する最初の方法である。
LieNLSDは既存の手法に比べて質的な利点を示し、ニューラルPDEソルバの長期ロールアウト精度を20%以上改善する。
論文 参考訳(メタデータ) (2025-10-02T09:54:08Z) - Generalized Linear Mode Connectivity for Transformers [87.32299363530996]
驚くべき現象はリニアモード接続(LMC)であり、独立に訓練されたモデルを低損失またはゼロ損失の経路で接続することができる。
以前の研究は主に置換によるニューロンの並べ替えに焦点を合わせてきたが、そのようなアプローチは範囲に限られている。
我々は、4つの対称性クラス(置換、半置換、変換、一般可逆写像)をキャプチャする統一的なフレームワークを導入する。
この一般化により、独立に訓練された視覚変換器とGPT-2モデルの間の低障壁とゼロバリア線形経路の発見が可能となった。
論文 参考訳(メタデータ) (2025-06-28T01:46:36Z) - GLGENN: A Novel Parameter-Light Equivariant Neural Networks Architecture Based on Clifford Geometric Algebras [0.0]
一般化リプシッツ群同変ニューラルネットワーク(GLGENN)という,幾何代数に基づく同変ニューラルネットワークの新しいアーキテクチャを提案し,実装し,比較する。
これらのネットワークは、任意の非退化あるいは対称双線型形式を持つベクトル空間の回転や反射を含むすべての擬直交変換に同値である。
論文 参考訳(メタデータ) (2025-06-11T11:32:51Z) - Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Symmetry-Based Structured Matrices for Efficient Approximately Equivariant Networks [5.187307904567701]
群行列 (GM) は、有限群の正規表現の現代的な概念の先駆けである。
GM は古典的 LDR 理論を一般離散群に一般化できることを示す。
我々のフレームワークは、ほぼ同変のNNや他の構造化行列ベースの手法と競合的に機能する。
論文 参考訳(メタデータ) (2024-09-18T07:52:33Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Generalization capabilities of neural networks in lattice applications [0.0]
翻訳等変ニューラルネットワークを用いた非同変ニューラルネットワークの利点について検討する。
我々の最良の同変アーキテクチャは、その非同変アーキテクチャよりも大幅に性能を向上し、一般化できることが示される。
論文 参考訳(メタデータ) (2021-12-23T11:48:06Z) - Implicit Bias of Linear Equivariant Networks [2.580765958706854]
群同変畳み込みニューラルネットワーク(G-CNN)は畳み込みニューラルネットワーク(CNN)の一般化である
低ランクフーリエ行列係数の解に勾配勾配勾配を学習した$L$層全幅線形G-CNNが収束することを示す。
論文 参考訳(メタデータ) (2021-10-12T15:34:25Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Encoding Involutory Invariance in Neural Networks [1.6371837018687636]
ある状況では、ニューラルネットワーク(NN)は、基礎となる物理対称性に従うデータに基づいて訓練される。
本研究では、関数がパリティまでのインボリュート線型/ファイン変換に対して不変な特別な対称性について検討する。
数値実験により,提案モデルが与えられた対称性を尊重しながらベースラインネットワークより優れていたことが示唆された。
また,本手法を水平/垂直反射対称性を持つデータセットに対する畳み込みNN分類タスクに適用する手法も提案されている。
論文 参考訳(メタデータ) (2021-06-07T16:07:15Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。