論文の概要: On the Completeness of Invariant Geometric Deep Learning Models
- arxiv url: http://arxiv.org/abs/2402.04836v1
- Date: Wed, 7 Feb 2024 13:32:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 15:13:34.174620
- Title: On the Completeness of Invariant Geometric Deep Learning Models
- Title(参考訳): 不変幾何学的深層学習モデルの完全性について
- Authors: Zian Li, Xiyuan Wang, Shijia Kang, Muhan Zhang
- Abstract要約: 不変モデルは、情報的幾何学的特徴を利用して意味のある幾何学的表現を生成することができる。
我々は,GeoNGNNという名前のVanilla DisGNNをネストすることで,E(3)完全不変設計を導入する。
我々の結果は不変モデルの理論的パワーのギャップを埋め、その能力の厳密で包括的な理解に寄与する。
- 参考スコア(独自算出の注目度): 24.505897569096476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Invariant models, one important class of geometric deep learning models, are
capable of generating meaningful geometric representations by leveraging
informative geometric features. These models are characterized by their
simplicity, good experimental results and computational efficiency. However,
their theoretical expressive power still remains unclear, restricting a deeper
understanding of the potential of such models. In this work, we concentrate on
characterizing the theoretical expressiveness of invariant models. We first
rigorously bound the expressiveness of the most classical invariant model,
Vanilla DisGNN (message passing neural networks incorporating distance),
restricting its unidentifiable cases to be only those highly symmetric
geometric graphs. To break these corner cases' symmetry, we introduce a simple
yet E(3)-complete invariant design by nesting Vanilla DisGNN, named GeoNGNN.
Leveraging GeoNGNN as a theoretical tool, we for the first time prove the
E(3)-completeness of three well-established geometric models: DimeNet, GemNet
and SphereNet. Our results fill the gap in the theoretical power of invariant
models, contributing to a rigorous and comprehensive understanding of their
capabilities. Experimentally, GeoNGNN exhibits good inductive bias in capturing
local environments, and achieves competitive results w.r.t. complicated models
relying on high-order invariant/equivariant representations while exhibiting
significantly faster computational speed.
- Abstract(参考訳): 幾何学的深層学習モデルの重要なクラスである不変モデルは、有意義な幾何学的表現を生成することができる。
これらのモデルは、単純さ、優れた実験結果、計算効率によって特徴づけられる。
しかし、それらの理論表現力はいまだに不明であり、そのようなモデルの可能性の深い理解を制限している。
本研究では,不変モデルの理論的表現性を特徴付けることに集中する。
我々はまず、最も古典的な不変モデルであるVanilla DisGNN(距離を取り入れたメッセージパスニューラルネットワーク)の表現性を厳密に拘束し、その不特定ケースを高対称性の幾何グラフのみに制限した。
これらのコーナーケースの対称性を破るために、Vanilla DisGNNをネストしてGeoNGNNという単純なE(3)完全不変設計を導入する。
理論ツールとしてGeoNGNNを活用することで、DimeNet、GemNet、SphereNetの3つの確立された幾何学モデルのE(3)完全性を初めて証明する。
我々の結果は不変モデルの理論的パワーのギャップを埋め、その能力の厳密で包括的な理解に寄与する。
実験では、GeoNGNNは局所環境の捕捉に優れた帰納バイアスを示し、高次不変/等変表現に依存する複雑なモデルと競合する結果を得ると同時に、計算速度を大幅に高速化する。
関連論文リスト
- Energy-conserving equivariant GNN for elasticity of lattice architected
metamaterials [2.6128355075580645]
本稿では,周期的ストラット格子の剛性を予測するために,高次グラフニューラルネットワークモデルを提案する。
モデルの主な特徴は (i) SE(3) の等式と (ii) エネルギーの保存の熱力学則との整合性である。
論文 参考訳(メタデータ) (2024-01-30T11:25:49Z) - A quatum inspired neural network for geometric modeling [14.214656118952178]
本稿では,MPSベースのメッセージパッシング戦略を提案する。
本手法は,多体関係を効果的にモデル化し,平均場近似を抑える。
これは幾何学的GNNに固有の標準メッセージパッシングおよびレイヤ集約モジュールをシームレスに置き換える。
論文 参考訳(メタデータ) (2024-01-03T15:59:35Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - Physics-informed neural networks for transformed geometries and
manifolds [0.0]
本稿では,幾何学的変分を頑健に適合させるために,PINN内に幾何変換を統合する新しい手法を提案する。
従来のPINNに対して,特に幾何学的変動下での柔軟性の向上を実証する。
提案したフレームワークは、パラメータ化されたジオメトリ上でのディープ・ニューラル演算子のトレーニングの展望を示す。
論文 参考訳(メタデータ) (2023-11-27T15:47:33Z) - Torsion Graph Neural Networks [21.965704710488232]
解析的トーション強化グラフニューラルネットワークモデルであるTorGNNを提案する。
われわれのTorGNNでは,各エッジに対して対応する局所単体複合体を同定し,解析トーションを算出する。
我々のTorGNNは両方のタスクにおいて優れた性能を達成でき、様々な最先端モデルより優れていることが判明した。
論文 参考訳(メタデータ) (2023-06-23T15:02:23Z) - Geometric Latent Diffusion Models for 3D Molecule Generation [172.15028281732737]
生成モデル、特に拡散モデル(DM)は、特徴豊富な測地を生成する上で有望な結果を得た。
我々はGeoLDM(Geometric Latent Diffusion Models)と呼ばれる新しい3次元分子生成法を提案する。
論文 参考訳(メタデータ) (2023-05-02T01:07:22Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z) - Graph Neural Network with Local Frame for Molecular Potential Energy
Surface [9.594432031144715]
分子表現学習に新しい局所フレーム法を導入し,その表現性を解析する。
我々は、非退化フレームが与えられた場合、通常のGNNでさえ分子をインジェクティブにエンコードし、最大表現率に達することを証明した。
実験では、単純な通常のGNNアーキテクチャを使用しながら、最先端の精度を実現している。
論文 参考訳(メタデータ) (2022-08-01T10:01:38Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - GeoMol: Torsional Geometric Generation of Molecular 3D Conformer
Ensembles [60.12186997181117]
分子グラフからの分子の3Dコンホメーラーアンサンブルの予測は、化学情報学と薬物発見の領域において重要な役割を担っている。
既存の生成モデルは、重要な分子幾何学的要素のモデリングの欠如を含むいくつかの欠点がある。
エンド・ツー・エンド、非自己回帰、SE(3)不変の機械学習手法であるGeoMolを提案し、3Dコンバータを生成する。
論文 参考訳(メタデータ) (2021-06-08T14:17:59Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。