論文の概要: Clifford Group Equivariant Neural Networks
- arxiv url: http://arxiv.org/abs/2305.11141v2
- Date: Wed, 11 Oct 2023 16:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 12:47:47.930031
- Title: Clifford Group Equivariant Neural Networks
- Title(参考訳): クリフォード群同変ニューラルネットワーク
- Authors: David Ruhe, Johannes Brandstetter, Patrick Forr\'e
- Abstract要約: 我々は$mathrmO(n)$-および$mathrmE(n)$equivariantモデルを構築するための新しいアプローチを導入する。
我々は、クリフォード代数内の部分群である$textitClifford group$を特定し、研究する。
私たちは、特に単一のコア実装から、いくつかの異なるタスクのステートテアートを示します。
- 参考スコア(独自算出の注目度): 14.260561321140976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Clifford Group Equivariant Neural Networks: a novel approach for
constructing $\mathrm{O}(n)$- and $\mathrm{E}(n)$-equivariant models. We
identify and study the $\textit{Clifford group}$, a subgroup inside the
Clifford algebra whose definition we adjust to achieve several favorable
properties. Primarily, the group's action forms an orthogonal automorphism that
extends beyond the typical vector space to the entire Clifford algebra while
respecting the multivector grading. This leads to several non-equivalent
subrepresentations corresponding to the multivector decomposition. Furthermore,
we prove that the action respects not just the vector space structure of the
Clifford algebra but also its multiplicative structure, i.e., the geometric
product. These findings imply that every polynomial in multivectors, An
advantage worth mentioning is that we obtain expressive layers that can
elegantly generalize to inner-product spaces of any dimension. We demonstrate,
notably from a single core implementation, state-of-the-art performance on
several distinct tasks, including a three-dimensional $n$-body experiment, a
four-dimensional Lorentz-equivariant high-energy physics experiment, and a
five-dimensional convex hull experiment.
- Abstract(参考訳): 我々は、clifford group equivariant neural networks: $\mathrm{o}(n)$- および $\mathrm{e}(n)$-同変モデルを構築するための新しいアプローチを紹介する。
クリフォード代数内の部分群である $\textit{Clifford group}$ を特定し、研究し、その定義を調整していくつかの好ましい性質を達成する。
主に、群の作用は直交自己同型を形成し、これは典型的なベクトル空間を越えてクリフォード代数全体へ拡張し、乗ベクトル階調を尊重する。
これにより、多重ベクトル分解に対応する複数の非同値な部分表現が導かれる。
さらに、作用はクリフォード代数のベクトル空間構造だけでなく、その乗法構造、すなわち幾何学積も尊重していることを証明する。
これらの結果から、乗ベクトルのすべての多項式は、任意の次元の内積空間に優雅に一般化できる表現的層が得られるという利点がある。
特に,1つのコア実装,3次元$n$-body実験,4次元Lorentz-equivariant高エネルギー物理実験,5次元凸船体実験など,いくつかの異なるタスクにおける最先端性能を実証する。
関連論文リスト
- Clifford Group Equivariant Simplicial Message Passing Networks [7.598439350696356]
Clifford Group Equivariant Simplicial Message Passing Networksを紹介する。
本手法は,クリフォード群同変層と単純メッセージパッシングの表現性を統合する。
本手法は,様々な幾何学的タスクにおいて,同変および単純グラフニューラルネットよりも優れた性能を示すことができる。
論文 参考訳(メタデータ) (2024-02-15T15:18:53Z) - Lie Neurons: Adjoint-Equivariant Neural Networks for Semisimple Lie Algebras [5.596048634951087]
本稿では,任意の半単純リー代数のデータを入力として取り込む同変ニューラルネットワークを提案する。
対応する群はリー代数を随伴演算として作用し、提案したネットワーク随伴-同変を導出する。
我々のフレームワークは、3次元ユークリッド空間からリー代数空間への単純な$mathrmSO(3)$-equivariantネットワークであるベクトルニューロンを一般化する。
論文 参考訳(メタデータ) (2023-10-06T18:34:27Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - Clifford Neural Layers for PDE Modeling [61.07764203014727]
偏微分方程式 (Partial differential equation, PDE) は、物理過程のシミュレーションを、時間とともに相互作用し、共進化するスカラー場やベクトル場として記述するために、科学や工学で広く用いられる。
現在のメソッドは、しばしば相関する異なるフィールドと内部コンポーネントの関係を明示的に考慮していない。
本稿では, Clifford convolutions や Clifford Fourier transforms とともに, 深層学習におけるマルチベクトル表現の活用について述べる。
結果として生じるクリフォード神経層は普遍的に適用可能であり、流体力学、天気予報、一般の物理系のモデリングで直接使用される。
論文 参考訳(メタデータ) (2022-09-08T17:35:30Z) - Unified Fourier-based Kernel and Nonlinearity Design for Equivariant
Networks on Homogeneous Spaces [52.424621227687894]
等質空間上の群同変ネットワークに対する統一的枠組みを導入する。
昇降した特徴場のフーリエ係数の空間性を利用する。
安定化部分群におけるフーリエ係数としての特徴を取り扱う他の方法が、我々のアクティベーションの特別な場合であることを示す。
論文 参考訳(メタデータ) (2022-06-16T17:59:01Z) - Geometric Deep Learning and Equivariant Neural Networks [0.9381376621526817]
幾何学的深層学習の数学的基礎を調査し,群同変とゲージ同変ニューラルネットワークに着目した。
任意の多様体 $mathcalM$ 上のゲージ同変畳み込みニューラルネットワークを、構造群 $K$ の主バンドルと、関連するベクトルバンドルの切断間の同変写像を用いて開発する。
セマンティックセグメンテーションやオブジェクト検出ネットワークなど,このフォーマリズムのいくつかの応用を解析する。
論文 参考訳(メタデータ) (2021-05-28T15:41:52Z) - A Practical Method for Constructing Equivariant Multilayer Perceptrons
for Arbitrary Matrix Groups [115.58550697886987]
行列群の同変層を解くための完全一般的なアルゴリズムを提供する。
他作品からのソリューションを特殊ケースとして回収するだけでなく、これまで取り組んだことのない複数のグループと等価な多層パーセプトロンを構築します。
提案手法は, 粒子物理学および力学系への応用により, 非同変基底線より優れる。
論文 参考訳(メタデータ) (2021-04-19T17:21:54Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。