論文の概要: E(n) Equivariant Message Passing Simplicial Networks
- arxiv url: http://arxiv.org/abs/2305.07100v2
- Date: Sun, 22 Oct 2023 16:36:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 12:33:34.237721
- Title: E(n) Equivariant Message Passing Simplicial Networks
- Title(参考訳): e(n)同変メッセージパッシング単純化ネットワーク
- Authors: Floor Eijkelboom, Rob Hesselink, Erik Bekkers
- Abstract要約: 我々は、$mathrmE(n)$ Equivariant Message Passing Simplicial Networks (EMPSNs)を示す。
EMPSNはグラフ(例えば三角形)の高次元単純性を学ぶ
EMPSNは幾何グラフの学習における最先端のアプローチと同等であることを示す。
- 参考スコア(独自算出の注目度): 1.6243562700235228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents $\mathrm{E}(n)$ Equivariant Message Passing Simplicial
Networks (EMPSNs), a novel approach to learning on geometric graphs and point
clouds that is equivariant to rotations, translations, and reflections. EMPSNs
can learn high-dimensional simplex features in graphs (e.g. triangles), and use
the increase of geometric information of higher-dimensional simplices in an
$\mathrm{E}(n)$ equivariant fashion. EMPSNs simultaneously generalize
$\mathrm{E}(n)$ Equivariant Graph Neural Networks to a topologically more
elaborate counterpart and provide an approach for including geometric
information in Message Passing Simplicial Networks. The results indicate that
EMPSNs can leverage the benefits of both approaches, leading to a general
increase in performance when compared to either method. Furthermore, the
results suggest that incorporating geometric information serves as an effective
measure against over-smoothing in message passing networks, especially when
operating on high-dimensional simplicial structures. Last, we show that EMPSNs
are on par with state-of-the-art approaches for learning on geometric graphs.
- Abstract(参考訳): 本稿では、回転、変換、反射に同変である幾何学的グラフと点雲を学習するための新しいアプローチである、$\mathrm{e}(n)$ equivariant message passing simplicial networks (empsns)を提案する。
EMPSNはグラフ(例えば三角形)の高次元の単純関数を学習し、$\mathrm{E}(n)$同変の方法で高次元の単純化の幾何学的情報を増やすことができる。
EMPSNは同時に$\mathrm{E}(n)$ Equivariant Graph Neural Networksを位相的により精巧に一般化し、メッセージパッシング単純ネットワークに幾何学的情報を含めるためのアプローチを提供する。
その結果, EMPSNは両手法の利点を生かすことができ, いずれの手法と比較しても性能が全般的に向上することが示唆された。
さらに, 幾何学的情報を取り込むことは, メッセージパッシングネットワーク, 特に高次元単純構造上での動作に対する効果的な対策として有効であることが示唆された。
最後に、EMPSNは幾何学グラフの学習における最先端のアプローチと同等であることを示す。
関連論文リスト
- On the Expressive Power of Sparse Geometric MPNNs [3.396731589928944]
幾何学グラフに対するメッセージパッシングニューラルネットワークの表現力について検討する。
非等価な幾何グラフの一般的なペアは、メッセージパッシングネットワークによって分離可能であることを示す。
論文 参考訳(メタデータ) (2024-07-02T07:48:22Z) - E(n) Equivariant Message Passing Cellular Networks [21.95746068487803]
E(n)同変メッセージパッシングセルネットワーク(EMPCN)を導入する。
EMPCNは、E(n)同変グラフネットワークからCW-複素体への拡張である。
EMPCNは, ステアビリティを必要とせずに, 複数のタスクにおける最先端性能を達成可能であることを示す。
論文 参考訳(メタデータ) (2024-06-05T11:00:27Z) - A Survey of Geometric Graph Neural Networks: Data Structures, Models and
Applications [67.33002207179923]
本稿では、幾何学的GNNに関するデータ構造、モデル、および応用について調査する。
幾何学的メッセージパッシングの観点から既存のモデルの統一的なビューを提供する。
また、方法論開発と実験評価の後の研究を促進するために、アプリケーションと関連するデータセットを要約する。
論文 参考訳(メタデータ) (2024-03-01T12:13:04Z) - A quatum inspired neural network for geometric modeling [14.214656118952178]
本稿では,MPSベースのメッセージパッシング戦略を提案する。
本手法は,多体関係を効果的にモデル化し,平均場近似を抑える。
これは幾何学的GNNに固有の標準メッセージパッシングおよびレイヤ集約モジュールをシームレスに置き換える。
論文 参考訳(メタデータ) (2024-01-03T15:59:35Z) - Simplicial Representation Learning with Neural $k$-Forms [14.566552361705499]
本稿では,ノード座標を用いて,$mathbbRn$に埋め込まれた単体錯体から得られる幾何学的情報を活用することに焦点を当てる。
我々は mathbbRn の微分 k-形式を用いて単純化の表現を作成し、メッセージパッシングなしに解釈可能性と幾何学的整合性を提供する。
本手法は, グラフ, simplicial Complex, セルコンプレックスなど, 様々な入力コンプレックスに適用可能である。
論文 参考訳(メタデータ) (2023-12-13T21:03:39Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - Modeling Graphs Beyond Hyperbolic: Graph Neural Networks in Symmetric
Positive Definite Matrices [8.805129821507046]
実世界のグラフデータは、幾何的および位相的特徴の複数のタイプによって特徴づけられる。
複雑なグラフを堅牢に処理できるグラフニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2023-06-24T21:50:53Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z) - Gauge Equivariant Mesh CNNs: Anisotropic convolutions on geometric
graphs [81.12344211998635]
メッシュ上の畳み込みを定義する一般的なアプローチは、それらをグラフとして解釈し、グラフ畳み込みネットワーク(GCN)を適用することである。
本稿では、GCNを一般化して異方性ゲージ同変カーネルを適用するGauge Equivariant Mesh CNNを提案する。
本実験は,従来のGCNおよび他の手法と比較して,提案手法の表現性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-11T17:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。