論文の概要: Clifford Group Equivariant Neural Networks
- arxiv url: http://arxiv.org/abs/2305.11141v1
- Date: Thu, 18 May 2023 17:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 13:39:54.435475
- Title: Clifford Group Equivariant Neural Networks
- Title(参考訳): クリフォード群同変ニューラルネットワーク
- Authors: David Ruhe, Johannes Brandstetter, Patrick Forr\'e
- Abstract要約: Clifford Group Equivariant Neural Networksは$mathrmE(n)$-equivariant Networkを構築するための新しいアプローチである。
私たちは、特に単一のコア実装から、いくつかの異なるタスクにおける最先端のパフォーマンスを示します。
- 参考スコア(独自算出の注目度): 2.5082902358127663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Clifford Group Equivariant Neural Networks: a novel approach for
constructing $\mathrm{E}(n)$-equivariant networks. We identify and study the
$\textit{Clifford group}$, a subgroup inside the Clifford algebra, whose
definition we slightly adjust to achieve several favorable properties.
Primarily, the group's action forms an orthogonal automorphism that extends
beyond the typical vector space to the entire Clifford algebra while respecting
the multivector grading. This leads to several non-equivalent
subrepresentations corresponding to the multivector decomposition. Furthermore,
we prove that the action respects not just the vector space structure of the
Clifford algebra but also its multiplicative structure, i.e., the geometric
product. These findings imply that every polynomial in multivectors, including
their grade projections, constitutes an equivariant map with respect to the
Clifford group, allowing us to parameterize equivariant neural network layers.
Notable advantages are that these layers operate directly on a vector basis and
elegantly generalize to any dimension. We demonstrate, notably from a single
core implementation, state-of-the-art performance on several distinct tasks,
including a three-dimensional $n$-body experiment, a four-dimensional
Lorentz-equivariant high-energy physics experiment, and a five-dimensional
convex hull experiment.
- Abstract(参考訳): 我々は,$\mathrm{e}(n)$-同変ネットワークを構築するための新しいアプローチとして,clifford group equivariant neural networksを導入する。
我々は、クリフォード代数内の部分群である $\textit{Clifford group}$ を特定し、研究する。
主に、群の作用は直交自己同型を形成し、これは典型的なベクトル空間を越えてクリフォード代数全体へ拡張し、乗ベクトル階調を尊重する。
これにより、多重ベクトル分解に対応する複数の非同値な部分表現が導かれる。
さらに、作用はクリフォード代数のベクトル空間構造だけでなく、その乗法構造、すなわち幾何学積も尊重していることを証明する。
これらの結果は、次数射影を含む多ベクトルの多項式がクリフォード群に対して同変写像を構成し、同変ニューラルネットワーク層をパラメータ化できることを示唆している。
注目すべき利点は、これらの層がベクトルベースで直接動作し、任意の次元に優雅に一般化することである。
特に,1つのコア実装,3次元$n$-body実験,4次元Lorentz-equivariant高エネルギー物理実験,5次元凸船体実験など,いくつかの異なるタスクにおける最先端性能を実証する。
関連論文リスト
- Clifford Group Equivariant Simplicial Message Passing Networks [7.598439350696356]
Clifford Group Equivariant Simplicial Message Passing Networksを紹介する。
本手法は,クリフォード群同変層と単純メッセージパッシングの表現性を統合する。
本手法は,様々な幾何学的タスクにおいて,同変および単純グラフニューラルネットよりも優れた性能を示すことができる。
論文 参考訳(メタデータ) (2024-02-15T15:18:53Z) - Lie Neurons: Adjoint-Equivariant Neural Networks for Semisimple Lie Algebras [5.596048634951087]
本稿では,任意の半単純リー代数のデータを入力として取り込む同変ニューラルネットワークを提案する。
対応する群はリー代数を随伴演算として作用し、提案したネットワーク随伴-同変を導出する。
我々のフレームワークは、3次元ユークリッド空間からリー代数空間への単純な$mathrmSO(3)$-equivariantネットワークであるベクトルニューロンを一般化する。
論文 参考訳(メタデータ) (2023-10-06T18:34:27Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - Clifford Neural Layers for PDE Modeling [61.07764203014727]
偏微分方程式 (Partial differential equation, PDE) は、物理過程のシミュレーションを、時間とともに相互作用し、共進化するスカラー場やベクトル場として記述するために、科学や工学で広く用いられる。
現在のメソッドは、しばしば相関する異なるフィールドと内部コンポーネントの関係を明示的に考慮していない。
本稿では, Clifford convolutions や Clifford Fourier transforms とともに, 深層学習におけるマルチベクトル表現の活用について述べる。
結果として生じるクリフォード神経層は普遍的に適用可能であり、流体力学、天気予報、一般の物理系のモデリングで直接使用される。
論文 参考訳(メタデータ) (2022-09-08T17:35:30Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。