論文の概要: On the Completeness of Invariant Geometric Deep Learning Models
- arxiv url: http://arxiv.org/abs/2402.04836v2
- Date: Mon, 8 Jul 2024 08:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 02:48:51.343252
- Title: On the Completeness of Invariant Geometric Deep Learning Models
- Title(参考訳): 不変幾何学的深層学習モデルの完全性について
- Authors: Zian Li, Xiyuan Wang, Shijia Kang, Muhan Zhang,
- Abstract要約: 不変モデルは、点雲における情報的幾何学的特徴を利用して意味のある幾何学的表現を生成することができる。
最も単純なグラフグラフニューラルネットワーク(サブグラフGNN)の幾何学的対応であるGeoNGNNは、これらのコーナーケースの対称性を効果的に破ることができることを示す。
理論ツールとしてGeoNGNNを活用することで、1)従来のグラフ学習で開発されたほとんどのグラフGNNは、E(3)完全性を持つ幾何学的シナリオにシームレスに拡張できる。
- 参考スコア(独自算出の注目度): 22.43250261702209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Invariant models, one important class of geometric deep learning models, are capable of generating meaningful geometric representations by leveraging informative geometric features in point clouds. These models are characterized by their simplicity, good experimental results and computational efficiency. However, their theoretical expressive power still remains unclear, restricting a deeper understanding of the potential of such models. In this work, we concentrate on characterizing the theoretical expressiveness of a wide range of invariant models. We first rigorously bound the expressiveness of the most classic invariant model, message-passing neural networks incorporating distance (DisGNN), restricting its unidentifiable cases to be only highly symmetric point clouds. We then show that GeoNGNN, the geometric counterpart of one of the simplest subgraph graph neural networks (subgraph GNNs), can effectively break these corner cases' symmetry and thus achieve E(3)-completeness. By leveraging GeoNGNN as a theoretical tool, we further prove that: 1) most subgraph GNNs developed in traditional graph learning can be seamlessly extended to geometric scenarios with E(3)-completeness; 2) DimeNet, GemNet and SphereNet, three well-established invariant models, are also all capable of achieving E(3)-completeness. Our theoretical results fill the gap in the theoretical power of invariant models, contributing to a rigorous and comprehensive understanding of their capabilities. We also empirically evaluated GeoNGNN, the simplest model within the large E(3)-complete family we established, which achieves competitive results to models relying on high-order invariant/equivariant representations on molecule-relevant tasks.
- Abstract(参考訳): 幾何学的深層学習モデルの1つの重要なクラスである不変モデルは、点雲における情報的幾何学的特徴を活用することによって意味のある幾何学的表現を生成することができる。
これらのモデルは、その単純さ、優れた実験結果、計算効率によって特徴づけられる。
しかし、それらの理論的な表現力はいまだに不明であり、そのようなモデルの可能性の深い理解を制限している。
本研究では、幅広い不変モデルの理論的表現性を特徴づけることに集中する。
まず、距離を組み込んだメッセージパスニューラルネットワーク(DisGNN)という、最も古典的な不変モデルの表現性を厳密に拘束し、その不特定ケースを高度に対称な点雲に限定する。
次に、最も単純なグラフグラフニューラルネットワーク(サブグラフGNN)の幾何学的対応であるGeoNGNNが、これらのコーナーケースの対称性を効果的に破壊し、E(3)完全性を達成することを示す。
GeoNGNNを理論的ツールとして活用することにより、さらにそれを証明します。
1) 従来のグラフ学習で開発されたほとんどのグラフGNNは、E(3)完全性を持つ幾何学的シナリオにシームレスに拡張できる。
2) DimeNet,GemNet,SphereNetの3つのよく確立された不変モデルもまたE(3)完全性を達成することができる。
我々の理論的結果は不変モデルの理論的パワーのギャップを埋め、その能力の厳密で包括的な理解に寄与する。
また,我々が確立した大規模E(3)完全族の中で最も単純なモデルであるGeoNGNNを実証的に評価し,分子関連タスクにおける高次不変/等変表現に依存するモデルに対する競合的な結果を得た。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - E(n) Equivariant Topological Neural Networks [10.603892843083173]
グラフニューラルネットワークはペアインタラクションのモデリングに優れていますが、高階インタラクションや機能に柔軟に対応できません。
トポロジカルディープラーニング(TDL)がこの問題に対処するための有望なツールとして最近登場した。
本稿では,E(n)-同変トポロジカルニューラルネットワーク(ETNN)を紹介する。
ETNNは回転、反射、翻訳を尊重しながら幾何学的ノードの特徴を取り入れている。
論文 参考訳(メタデータ) (2024-05-24T10:55:38Z) - A Survey of Geometric Graph Neural Networks: Data Structures, Models and
Applications [67.33002207179923]
本稿では、幾何学的GNNに関するデータ構造、モデル、および応用について調査する。
幾何学的メッセージパッシングの観点から既存のモデルの統一的なビューを提供する。
また、方法論開発と実験評価の後の研究を促進するために、アプリケーションと関連するデータセットを要約する。
論文 参考訳(メタデータ) (2024-03-01T12:13:04Z) - Energy-conserving equivariant GNN for elasticity of lattice architected metamaterials [3.7852720324045444]
我々は、ストラットベースの格子に対する構造-プロパティ関係の大きなデータセットを生成する。
データセットはコミュニティで利用でき、物理的な原則に固定されたメソッドの開発を促進することができる。
このデータセットでトレーニングした高階GNNモデルを提案する。
論文 参考訳(メタデータ) (2024-01-30T11:25:49Z) - A quatum inspired neural network for geometric modeling [14.214656118952178]
本稿では,MPSベースのメッセージパッシング戦略を提案する。
本手法は,多体関係を効果的にモデル化し,平均場近似を抑える。
これは幾何学的GNNに固有の標準メッセージパッシングおよびレイヤ集約モジュールをシームレスに置き換える。
論文 参考訳(メタデータ) (2024-01-03T15:59:35Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - Torsion Graph Neural Networks [21.965704710488232]
解析的トーション強化グラフニューラルネットワークモデルであるTorGNNを提案する。
われわれのTorGNNでは,各エッジに対して対応する局所単体複合体を同定し,解析トーションを算出する。
我々のTorGNNは両方のタスクにおいて優れた性能を達成でき、様々な最先端モデルより優れていることが判明した。
論文 参考訳(メタデータ) (2023-06-23T15:02:23Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - GeoMol: Torsional Geometric Generation of Molecular 3D Conformer
Ensembles [60.12186997181117]
分子グラフからの分子の3Dコンホメーラーアンサンブルの予測は、化学情報学と薬物発見の領域において重要な役割を担っている。
既存の生成モデルは、重要な分子幾何学的要素のモデリングの欠如を含むいくつかの欠点がある。
エンド・ツー・エンド、非自己回帰、SE(3)不変の機械学習手法であるGeoMolを提案し、3Dコンバータを生成する。
論文 参考訳(メタデータ) (2021-06-08T14:17:59Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。