論文の概要: On the Completeness of Invariant Geometric Deep Learning Models
- arxiv url: http://arxiv.org/abs/2402.04836v1
- Date: Wed, 7 Feb 2024 13:32:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 15:13:34.174620
- Title: On the Completeness of Invariant Geometric Deep Learning Models
- Title(参考訳): 不変幾何学的深層学習モデルの完全性について
- Authors: Zian Li, Xiyuan Wang, Shijia Kang, Muhan Zhang
- Abstract要約: 不変モデルは、情報的幾何学的特徴を利用して意味のある幾何学的表現を生成することができる。
我々は,GeoNGNNという名前のVanilla DisGNNをネストすることで,E(3)完全不変設計を導入する。
我々の結果は不変モデルの理論的パワーのギャップを埋め、その能力の厳密で包括的な理解に寄与する。
- 参考スコア(独自算出の注目度): 24.505897569096476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Invariant models, one important class of geometric deep learning models, are
capable of generating meaningful geometric representations by leveraging
informative geometric features. These models are characterized by their
simplicity, good experimental results and computational efficiency. However,
their theoretical expressive power still remains unclear, restricting a deeper
understanding of the potential of such models. In this work, we concentrate on
characterizing the theoretical expressiveness of invariant models. We first
rigorously bound the expressiveness of the most classical invariant model,
Vanilla DisGNN (message passing neural networks incorporating distance),
restricting its unidentifiable cases to be only those highly symmetric
geometric graphs. To break these corner cases' symmetry, we introduce a simple
yet E(3)-complete invariant design by nesting Vanilla DisGNN, named GeoNGNN.
Leveraging GeoNGNN as a theoretical tool, we for the first time prove the
E(3)-completeness of three well-established geometric models: DimeNet, GemNet
and SphereNet. Our results fill the gap in the theoretical power of invariant
models, contributing to a rigorous and comprehensive understanding of their
capabilities. Experimentally, GeoNGNN exhibits good inductive bias in capturing
local environments, and achieves competitive results w.r.t. complicated models
relying on high-order invariant/equivariant representations while exhibiting
significantly faster computational speed.
- Abstract(参考訳): 幾何学的深層学習モデルの重要なクラスである不変モデルは、有意義な幾何学的表現を生成することができる。
これらのモデルは、単純さ、優れた実験結果、計算効率によって特徴づけられる。
しかし、それらの理論表現力はいまだに不明であり、そのようなモデルの可能性の深い理解を制限している。
本研究では,不変モデルの理論的表現性を特徴付けることに集中する。
我々はまず、最も古典的な不変モデルであるVanilla DisGNN(距離を取り入れたメッセージパスニューラルネットワーク)の表現性を厳密に拘束し、その不特定ケースを高対称性の幾何グラフのみに制限した。
これらのコーナーケースの対称性を破るために、Vanilla DisGNNをネストしてGeoNGNNという単純なE(3)完全不変設計を導入する。
理論ツールとしてGeoNGNNを活用することで、DimeNet、GemNet、SphereNetの3つの確立された幾何学モデルのE(3)完全性を初めて証明する。
我々の結果は不変モデルの理論的パワーのギャップを埋め、その能力の厳密で包括的な理解に寄与する。
実験では、GeoNGNNは局所環境の捕捉に優れた帰納バイアスを示し、高次不変/等変表現に依存する複雑なモデルと競合する結果を得ると同時に、計算速度を大幅に高速化する。
関連論文リスト
- Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - E(n) Equivariant Topological Neural Networks [10.603892843083173]
グラフニューラルネットワークはペアインタラクションのモデリングに優れていますが、高階インタラクションや機能に柔軟に対応できません。
トポロジカルディープラーニング(TDL)がこの問題に対処するための有望なツールとして最近登場した。
本稿では,E(n)-同変トポロジカルニューラルネットワーク(ETNN)を紹介する。
ETNNは回転、反射、翻訳を尊重しながら幾何学的ノードの特徴を取り入れている。
論文 参考訳(メタデータ) (2024-05-24T10:55:38Z) - A Survey of Geometric Graph Neural Networks: Data Structures, Models and
Applications [67.33002207179923]
本稿では、幾何学的GNNに関するデータ構造、モデル、および応用について調査する。
幾何学的メッセージパッシングの観点から既存のモデルの統一的なビューを提供する。
また、方法論開発と実験評価の後の研究を促進するために、アプリケーションと関連するデータセットを要約する。
論文 参考訳(メタデータ) (2024-03-01T12:13:04Z) - Energy-conserving equivariant GNN for elasticity of lattice architected metamaterials [3.7852720324045444]
我々は、ストラットベースの格子に対する構造-プロパティ関係の大きなデータセットを生成する。
データセットはコミュニティで利用でき、物理的な原則に固定されたメソッドの開発を促進することができる。
このデータセットでトレーニングした高階GNNモデルを提案する。
論文 参考訳(メタデータ) (2024-01-30T11:25:49Z) - A quatum inspired neural network for geometric modeling [14.214656118952178]
本稿では,MPSベースのメッセージパッシング戦略を提案する。
本手法は,多体関係を効果的にモデル化し,平均場近似を抑える。
これは幾何学的GNNに固有の標準メッセージパッシングおよびレイヤ集約モジュールをシームレスに置き換える。
論文 参考訳(メタデータ) (2024-01-03T15:59:35Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - Torsion Graph Neural Networks [21.965704710488232]
解析的トーション強化グラフニューラルネットワークモデルであるTorGNNを提案する。
われわれのTorGNNでは,各エッジに対して対応する局所単体複合体を同定し,解析トーションを算出する。
我々のTorGNNは両方のタスクにおいて優れた性能を達成でき、様々な最先端モデルより優れていることが判明した。
論文 参考訳(メタデータ) (2023-06-23T15:02:23Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - GeoMol: Torsional Geometric Generation of Molecular 3D Conformer
Ensembles [60.12186997181117]
分子グラフからの分子の3Dコンホメーラーアンサンブルの予測は、化学情報学と薬物発見の領域において重要な役割を担っている。
既存の生成モデルは、重要な分子幾何学的要素のモデリングの欠如を含むいくつかの欠点がある。
エンド・ツー・エンド、非自己回帰、SE(3)不変の機械学習手法であるGeoMolを提案し、3Dコンバータを生成する。
論文 参考訳(メタデータ) (2021-06-08T14:17:59Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。