論文の概要: Metric Learning for Clifford Group Equivariant Neural Networks
- arxiv url: http://arxiv.org/abs/2407.09926v1
- Date: Sat, 13 Jul 2024 15:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 20:08:02.990028
- Title: Metric Learning for Clifford Group Equivariant Neural Networks
- Title(参考訳): クリフォード群同変ニューラルネットワークの計量学習
- Authors: Riccardo Ali, Paulina Kulytė, Haitz Sáez de Ocáriz Borde, Pietro Liò,
- Abstract要約: クリフォード群同変ニューラルネットワーク(Clifford Group Equivariant Neural Networks, CGENNs)は、クリフォード代数と多ベクトルを利用して、ニューラル表現における対称性の制約を保証する。
これまでの研究では、内部ネットワークの表現をユークリッドやミンコフスキー(擬似計量)に制限していた。
我々は、CGENNネットワークがより柔軟な表現を学べるように、データ駆動方式でメトリックを学習できる別の方法を提案する。
- 参考スコア(独自算出の注目度): 15.551447911164903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clifford Group Equivariant Neural Networks (CGENNs) leverage Clifford algebras and multivectors as an alternative approach to incorporating group equivariance to ensure symmetry constraints in neural representations. In principle, this formulation generalizes to orthogonal groups and preserves equivariance regardless of the metric signature. However, previous works have restricted internal network representations to Euclidean or Minkowski (pseudo-)metrics, handpicked depending on the problem at hand. In this work, we propose an alternative method that enables the metric to be learned in a data-driven fashion, allowing the CGENN network to learn more flexible representations. Specifically, we populate metric matrices fully, ensuring they are symmetric by construction, and leverage eigenvalue decomposition to integrate this additional learnable component into the original CGENN formulation in a principled manner. Additionally, we motivate our method using insights from category theory, which enables us to explain Clifford algebras as a categorical construction and guarantee the mathematical soundness of our approach. We validate our method in various tasks and showcase the advantages of learning more flexible latent metric representations. The code and data are available at https://github.com/rick-ali/Metric-Learning-for-CGENNs
- Abstract(参考訳): クリフォード群同変ニューラルネットワーク (Clifford Group Equivariant Neural Networks, CGENNs) は、クリフォード代数と乗数ベクトルを、群同値を取り込むことによって、ニューラル表現における対称性の制約を確実にする代替アプローチとして活用する。
原則として、この定式化は直交群に一般化し、計量シグネチャによらず同値を保つ。
しかし、以前の研究は内部ネットワークの表現をユークリッドやミンコフスキー(擬似計量)に制限しており、手元にある問題に応じて手書きされている。
本研究では,データ駆動方式でメトリクスを学習し,CGENNネットワークがより柔軟な表現を学習できるようにする方法を提案する。
具体的には、距離行列を完全に設定し、構成によって対称であることを保証し、固有値分解を利用して、この新たな学習可能な成分を原理的に元のCGENNの定式化に統合する。
さらに、カテゴリ理論からの洞察を用いて手法を動機付け、クラフォード代数を分類的構成として説明し、アプローチの数学的健全性を保証する。
提案手法を様々なタスクで検証し,より柔軟な潜在距離表現の学習の利点を示す。
コードとデータはhttps://github.com/rick-ali/Metric-Learning-for-CGENNsで公開されている。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - A Unified Framework to Enforce, Discover, and Promote Symmetry in Machine Learning [5.1105250336911405]
機械学習モデルに対称性を組み込むための統一理論および方法論の枠組みを提供する。
対称性の強制と発見は、リー微分の双線型構造に対して双対である線形代数的タスクであることを示す。
本稿では、リー微分と核ノルム緩和に基づく凸正規化関数のクラスを導入することで対称性を促進する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-01T01:19:54Z) - Machine Learning Clifford invariants of ADE Coxeter elements [2.0269884338680866]
A_8$,$D_8$,$E_8$のすべてのコクセター変換を単純根の基底の選択に対して徹底的に計算する。
この計算代数学のパラダイムはデータセットを生成し、データサイエンスの技法を用いて掘り下げることができる。
本論文はクリフォード代数を用いた実験数学におけるポンププライミングの研究である。
論文 参考訳(メタデータ) (2023-09-29T18:00:01Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - Generative Adversarial Symmetry Discovery [19.098785309131458]
リーGANは対称性を解釈可能なリー代数基底として表現し、様々な対称性を発見できる。
学習された対称性は、予測の精度と一般化を改善するために、既存の同変ニューラルネットワークで容易に利用することができる。
論文 参考訳(メタデータ) (2023-02-01T04:28:36Z) - Deep Learning Symmetries and Their Lie Groups, Algebras, and Subalgebras
from First Principles [55.41644538483948]
ラベル付きデータセットに存在する連続した対称性群の検出と同定のためのディープラーニングアルゴリズムを設計する。
完全に接続されたニューラルネットワークを用いて、変換対称性と対応するジェネレータをモデル化する。
また,Lie群とその性質の数学的研究に機械学習アプローチを使うための扉を開く。
論文 参考訳(メタデータ) (2023-01-13T16:25:25Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - MDP Homomorphic Networks: Group Symmetries in Reinforcement Learning [90.20563679417567]
本稿では,深層強化学習のためのMDP準同型ネットワークを提案する。
MDP準同型ネットワーク(英: MDP homomorphic network)は、MDPの結合状態-作用空間における対称性の下で不変なニューラルネットワークである。
このようなネットワークは,グリッドワールドであるCartPoleとPongの非構造化ネットワークよりも高速に収束することを示す。
論文 参考訳(メタデータ) (2020-06-30T15:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。