論文の概要: MatrixNet: Learning over symmetry groups using learned group representations
- arxiv url: http://arxiv.org/abs/2501.09571v1
- Date: Thu, 16 Jan 2025 14:45:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:11:00.608869
- Title: MatrixNet: Learning over symmetry groups using learned group representations
- Title(参考訳): MatrixNet:学習したグループ表現を用いた対称性群による学習
- Authors: Lucas Laird, Circe Hsu, Asilata Bapat, Robin Walters,
- Abstract要約: 本稿では,事前定義された表現の代わりにグループ要素入力の行列表現を学習するニューラルネットワークアーキテクチャであるMatrixNetを提案する。
MatrixNetは、トレーニングセットよりも単語長の大きいグループ要素の一般化を可能にするグループ関係を尊重していることを示す。
- 参考スコア(独自算出の注目度): 13.19415425364914
- License:
- Abstract: Group theory has been used in machine learning to provide a theoretically grounded approach for incorporating known symmetry transformations in tasks from robotics to protein modeling. In these applications, equivariant neural networks use known symmetry groups with predefined representations to learn over geometric input data. We propose MatrixNet, a neural network architecture that learns matrix representations of group element inputs instead of using predefined representations. MatrixNet achieves higher sample efficiency and generalization over several standard baselines in prediction tasks over the several finite groups and the Artin braid group. We also show that MatrixNet respects group relations allowing generalization to group elements of greater word length than in the training set.
- Abstract(参考訳): 群論は、ロボット工学からタンパク質モデリングに至るまでのタスクに既知の対称性の変換を組み込むための理論上のアプローチを提供するために機械学習で使用されている。
これらの応用において、同変ニューラルネットワークは、既定表現を持つ既知の対称性群を用いて幾何学的な入力データについて学習する。
本稿では,事前定義された表現の代わりにグループ要素入力の行列表現を学習するニューラルネットワークアーキテクチャであるMatrixNetを提案する。
MatrixNetは、いくつかの有限群とアルティンブレイド群上の予測タスクにおいて、いくつかの標準ベースラインよりも高いサンプリング効率と一般化を達成する。
また、MatrixNetは、トレーニングセットよりも単語長の大きい要素を一般化できるグループ関係を尊重していることを示す。
関連論文リスト
- Symmetry-Based Structured Matrices for Efficient Approximately Equivariant Networks [5.187307904567701]
群行列(英: Group Matrices, GM)は、有限群の正規表現の現代的概念の忘れ去られた前駆体である。
GMは、CNNのすべての基本的な操作を一般的な離散グループに拡張するために使用できる。
GMは、CNNのすべての基本動作を一般的な離散グループに拡張するために使用できることを示す。
論文 参考訳(メタデータ) (2024-09-18T07:52:33Z) - Understanding Matrix Function Normalizations in Covariance Pooling through the Lens of Riemannian Geometry [63.694184882697435]
グローバル共分散プーリング(GCP)は、高レベルの表現の2階統計を利用して、ディープニューラルネットワーク(DNN)の性能を向上させることが実証されている。
論文 参考訳(メタデータ) (2024-07-15T07:11:44Z) - Metric Learning for Clifford Group Equivariant Neural Networks [15.551447911164903]
クリフォード群同変ニューラルネットワーク(Clifford Group Equivariant Neural Networks, CGENNs)は、クリフォード代数と多ベクトルを利用して、ニューラル表現における対称性の制約を保証する。
これまでの研究では、内部ネットワークの表現をユークリッドやミンコフスキー(擬似計量)に制限していた。
我々は、CGENNネットワークがより柔軟な表現を学べるように、データ駆動方式でメトリックを学習できる別の方法を提案する。
論文 参考訳(メタデータ) (2024-07-13T15:41:14Z) - Learning Linear Groups in Neural Networks [9.667333420680448]
ニューラルネットワークの重み空間に作用する線形群を学習するためのニューラルネットワークアーキテクチャであるLinear Group Networks(LGNs)を提案する。
LGNは、データ内の隠された対称性の監督や知識なしにグループを学習する。
線形群構造はデータ分布と検討課題の両方に依存することを示す。
論文 参考訳(メタデータ) (2023-05-29T18:29:11Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Implicit Bias of Linear Equivariant Networks [2.580765958706854]
群同変畳み込みニューラルネットワーク(G-CNN)は畳み込みニューラルネットワーク(CNN)の一般化である
低ランクフーリエ行列係数の解に勾配勾配勾配を学習した$L$層全幅線形G-CNNが収束することを示す。
論文 参考訳(メタデータ) (2021-10-12T15:34:25Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。