論文の概要: Clifford Group Equivariant Simplicial Message Passing Networks
- arxiv url: http://arxiv.org/abs/2402.10011v3
- Date: Tue, 12 Mar 2024 12:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 00:46:42.895182
- Title: Clifford Group Equivariant Simplicial Message Passing Networks
- Title(参考訳): クリフォード群同変単純メッセージパッシングネットワーク
- Authors: Cong Liu, David Ruhe, Floor Eijkelboom, Patrick Forr\'e
- Abstract要約: Clifford Group Equivariant Simplicial Message Passing Networksを紹介する。
本手法は,クリフォード群同変層と単純メッセージパッシングの表現性を統合する。
本手法は,様々な幾何学的タスクにおいて,同変および単純グラフニューラルネットよりも優れた性能を示すことができる。
- 参考スコア(独自算出の注目度): 7.598439350696356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Clifford Group Equivariant Simplicial Message Passing Networks,
a method for steerable E(n)-equivariant message passing on simplicial
complexes. Our method integrates the expressivity of Clifford group-equivariant
layers with simplicial message passing, which is topologically more intricate
than regular graph message passing. Clifford algebras include higher-order
objects such as bivectors and trivectors, which express geometric features
(e.g., areas, volumes) derived from vectors. Using this knowledge, we represent
simplex features through geometric products of their vertices. To achieve
efficient simplicial message passing, we share the parameters of the message
network across different dimensions. Additionally, we restrict the final
message to an aggregation of the incoming messages from different dimensions,
leading to what we term shared simplicial message passing. Experimental results
show that our method is able to outperform both equivariant and simplicial
graph neural networks on a variety of geometric tasks.
- Abstract(参考訳): 本稿では,Simplicial Complex上でのE(n)-equivariantメッセージパッシング法であるClifford Group Equivariant Simplicial Message Passing Networksを紹介する。
提案手法は, クリフォード群同変層の表現率と単純メッセージパッシングを統合し, 通常のグラフメッセージパッシングよりもトポロジ的に複雑である。
クリフォード代数には、ベクトルから派生した幾何学的特徴(例えば、領域、体積)を表現する bivectors や trivectors のような高次対象が含まれる。
この知識を用いて, 頂点の幾何学的積を通して, 単純な特徴を表現する。
効率的な簡易なメッセージパッシングを実現するため、異なる次元にわたるメッセージネットワークのパラメータを共有する。
さらに、最終メッセージを異なる次元から受信したメッセージの集約に制限し、共有単純メッセージパッシングと呼ばれるものを生み出します。
実験結果から,本手法は様々な幾何学的タスクにおいて,同変および単純グラフニューラルネットよりも優れることが示された。
関連論文リスト
- A Clifford Algebraic Approach to E(n)-Equivariant High-order Graph Neural Networks [2.2543808018990443]
我々はClifford Group Equivariant Graph Neural Networks (CG-EGNN)を紹介する。
CG-EGNNはクリフォード代数の文脈で高階局所構造を統合することで高階メッセージパッシングを強化する。
CG-EGNNは,n-body,CMUモーションキャプチャ,MD17など,様々なベンチマークにおいて,従来の手法よりも優れていたことを実証的に検証した。
論文 参考訳(メタデータ) (2024-10-07T02:12:42Z) - Simplicial Representation Learning with Neural $k$-Forms [14.566552361705499]
本稿では,ノード座標を用いて,$mathbbRn$に埋め込まれた単体錯体から得られる幾何学的情報を活用することに焦点を当てる。
我々は mathbbRn の微分 k-形式を用いて単純化の表現を作成し、メッセージパッシングなしに解釈可能性と幾何学的整合性を提供する。
本手法は, グラフ, simplicial Complex, セルコンプレックスなど, 様々な入力コンプレックスに適用可能である。
論文 参考訳(メタデータ) (2023-12-13T21:03:39Z) - Clifford Group Equivariant Neural Networks [14.260561321140976]
Clifford Group Equivariant Neural Networksは$mathrmO(n)$-および$mathrmE(n)$-equivariantモデルを構築するための新しいアプローチである。
私たちは、特に単一のコア実装から、いくつかの異なるタスクにおける最先端のパフォーマンスを示します。
論文 参考訳(メタデータ) (2023-05-18T17:35:35Z) - E(n) Equivariant Message Passing Simplicial Networks [1.6243562700235228]
我々は、$mathrmE(n)$ Equivariant Message Passing Simplicial Networks (EMPSNs)を示す。
EMPSNはグラフ(例えば三角形)の高次元単純性を学ぶ
EMPSNは幾何グラフの学習における最先端のアプローチと同等であることを示す。
論文 参考訳(メタデータ) (2023-05-11T19:10:26Z) - Geometric Clifford Algebra Networks [53.456211342585824]
本稿では,動的システムのモデリングのためのGeometric Clifford Algebra Networks (GCANs)を提案する。
GCANは幾何学的(クリフォード)代数を用いた対称性群変換に基づいている。
論文 参考訳(メタデータ) (2023-02-13T18:48:33Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Geometric and Physical Quantities improve E(3) Equivariant Message
Passing [59.98327062664975]
等変グラフネットワークを一般化する等変グラフニューラルネットワーク(SEGNN)を提案する。
このモデルは、ステアブルで構成され、メッセージと更新機能の両方に幾何学的および物理的情報を組み込むことができる。
計算物理学と化学におけるいくつかの課題において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-06T16:34:26Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Building powerful and equivariant graph neural networks with structural
message-passing [74.93169425144755]
本稿では,2つのアイデアに基づいた,強力かつ同変なメッセージパッシングフレームワークを提案する。
まず、各ノードの周囲の局所的コンテキスト行列を学習するために、特徴に加えてノードの1ホット符号化を伝搬する。
次に,メッセージのパラメトリゼーション手法を提案する。
論文 参考訳(メタデータ) (2020-06-26T17:15:16Z) - Convolutional Occupancy Networks [88.48287716452002]
本稿では,オブジェクトと3Dシーンの詳細な再構築のための,より柔軟な暗黙的表現である畳み込み機能ネットワークを提案する。
畳み込みエンコーダと暗黙の占有デコーダを組み合わせることで、帰納的バイアスが組み込まれ、3次元空間における構造的推論が可能となる。
実験により,本手法は単一物体の微細な3次元再構成,大規模屋内シーンへのスケール,合成データから実データへの一般化を可能にした。
論文 参考訳(メタデータ) (2020-03-10T10:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。