論文の概要: Is Distance Matrix Enough for Geometric Deep Learning?
- arxiv url: http://arxiv.org/abs/2302.05743v5
- Date: Tue, 31 Oct 2023 03:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 03:53:24.133740
- Title: Is Distance Matrix Enough for Geometric Deep Learning?
- Title(参考訳): 距離行列は幾何学的深層学習に十分か?
- Authors: Zian Li, Xiyuan Wang, Yinan Huang, Muhan Zhang
- Abstract要約: 我々は,Vanilla DisGNNが幾何学的に不完全であることを示す。
次に,距離行列に含まれるリッチな幾何学を効果的に活用できる$k$-DisGNNを提案する。
私たちの$k$-DisGNNsはMD17.comの最先端の成果を多数達成しています。
- 参考スコア(独自算出の注目度): 26.554124520451122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are often used for tasks involving the 3D
geometry of a given graph, such as molecular dynamics simulation. While
incorporating Euclidean distance into Message Passing Neural Networks (referred
to as Vanilla DisGNN) is a straightforward way to learn the geometry, it has
been demonstrated that Vanilla DisGNN is geometrically incomplete. In this
work, we first construct families of novel and symmetric geometric graphs that
Vanilla DisGNN cannot distinguish even when considering all-pair distances,
which greatly expands the existing counterexample families. Our counterexamples
show the inherent limitation of Vanilla DisGNN to capture symmetric geometric
structures. We then propose $k$-DisGNNs, which can effectively exploit the rich
geometry contained in the distance matrix. We demonstrate the high expressive
power of $k$-DisGNNs from three perspectives: 1. They can learn high-order
geometric information that cannot be captured by Vanilla DisGNN. 2. They can
unify some existing well-designed geometric models. 3. They are universal
function approximators from geometric graphs to scalars (when $k\geq 2$) and
vectors (when $k\geq 3$). Most importantly, we establish a connection between
geometric deep learning (GDL) and traditional graph representation learning
(GRL), showing that those highly expressive GNN models originally designed for
GRL can also be applied to GDL with impressive performance, and that existing
complicated, equivariant models are not the only solution. Experiments verify
our theory. Our $k$-DisGNNs achieve many new state-of-the-art results on MD17.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、分子動力学シミュレーションなど、与えられたグラフの3次元幾何学を含むタスクによく使用される。
ユークリッド距離をメッセージパッシングニューラルネットワーク(Vanilla DisGNN)に組み込むことは、幾何学を学ぶための簡単な方法であるが、Vanilla DisGNNは幾何学的に不完全であることが示されている。
本研究では,Vanilla DisGNNが全対距離を考慮しても区別できない,新規で対称な幾何グラフの族を構築し,既存の反例族を大きく拡大する。
我々の反例は、対称幾何学構造を捉えるためのバニラ DisGNN の本質的な限界を示している。
次に,距離行列に含まれるリッチな幾何学を効果的に活用できる$k$-DisGNNを提案する。
3つの視点から、$k$-DisGNNの高表現力を示す。
1.vanilla disgnnでは取得できない高次幾何情報を学習することができる。
2. 既存のよく設計された幾何学モデルを統一することができる。
3.それらは幾何学グラフからスカラー($k\geq 2$)およびベクトル($k\geq 3$)への普遍関数近似である。
最も重要なことは、幾何学的深層学習(GDL)と従来のグラフ表現学習(GRL)の関連性を確立し、GRL用に設計されたこれらの高表現性GNNモデルも印象的な性能でGDLに適用可能であり、既存の複雑で同変なモデルが唯一の解決策ではないことを示すことである。
実験は我々の理論を検証する。
当社の$k$-disgnnは、md17で最新の結果の多くを達成しています。
関連論文リスト
- On the Expressive Power of Sparse Geometric MPNNs [3.396731589928944]
幾何学グラフに対するメッセージパッシングニューラルネットワークの表現力について検討する。
非同型幾何グラフの一般的なペアは、メッセージパッシングネットワークによって分離可能であることを示す。
論文 参考訳(メタデータ) (2024-07-02T07:48:22Z) - A Survey of Geometric Graph Neural Networks: Data Structures, Models and
Applications [67.33002207179923]
本稿では、幾何学的GNNに関するデータ構造、モデル、および応用について調査する。
幾何学的メッセージパッシングの観点から既存のモデルの統一的なビューを提供する。
また、方法論開発と実験評価の後の研究を促進するために、アプリケーションと関連するデータセットを要約する。
論文 参考訳(メタデータ) (2024-03-01T12:13:04Z) - On the Completeness of Invariant Geometric Deep Learning Models [22.43250261702209]
不変モデルは、点雲における情報的幾何学的特徴を利用して意味のある幾何学的表現を生成することができる。
最も単純なグラフグラフニューラルネットワーク(サブグラフGNN)の幾何学的対応であるGeoNGNNは、これらのコーナーケースの対称性を効果的に破ることができることを示す。
理論ツールとしてGeoNGNNを活用することで、1)従来のグラフ学習で開発されたほとんどのグラフGNNは、E(3)完全性を持つ幾何学的シナリオにシームレスに拡張できる。
論文 参考訳(メタデータ) (2024-02-07T13:32:53Z) - A Hitchhiker's Guide to Geometric GNNs for 3D Atomic Systems [87.30652640973317]
原子系の計算モデリングの最近の進歩は、これらを3次元ユークリッド空間のノードとして埋め込まれた原子を含む幾何学的グラフとして表現している。
Geometric Graph Neural Networksは、タンパク質構造予測から分子シミュレーション、物質生成まで、幅広い応用を駆動する機械学習アーキテクチャとして好まれている。
本稿では,3次元原子システムのための幾何学的GNNの分野について,包括的で自己完結した概要を述べる。
論文 参考訳(メタデータ) (2023-12-12T18:44:19Z) - Graph Neural Networks and 3-Dimensional Topology [0.0]
本稿では,グラフの配管によって記述された3次元多様体のクラスを考察し,その問題にグラフニューラルネットワーク(GNN)を用いる。
我々は教師付き学習を用いて、そのような質問に対する回答を高精度に提供するGNNを訓練する。
我々は、GNNによる強化学習を、答えが正であればグラフのペアに関連するノイマン運動の列を見つけることを考える。
論文 参考訳(メタデータ) (2023-05-10T08:18:10Z) - 3D Molecular Geometry Analysis with 2D Graphs [79.47097907673877]
分子の基底状態3次元ジオメトリは多くの分子解析タスクに必須である。
現代の量子力学的手法は正確な3次元幾何学を計算できるが、計算は禁じられている。
分子グラフから3次元幾何学を予測するための新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-01T19:00:46Z) - On the Expressive Power of Geometric Graph Neural Networks [18.569063436109044]
基礎となる物理対称性を尊重しながら幾何グラフを識別するための幾何版WLテスト(GWL)を提案する。
鍵となる設計選択が幾何的GNN表現性に与える影響を解き放つ。
論文 参考訳(メタデータ) (2023-01-23T08:08:10Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - MGNN: Graph Neural Networks Inspired by Distance Geometry Problem [28.789684784093048]
グラフニューラルネットワーク(GNN)は、機械学習分野における顕著な研究トピックとして現れている。
本稿では,GNNの分類段階における分類器の親近性に着想を得たGNNモデルを提案する。
合成および実世界の両方のデータセットを用いて実験を行い,本モデルの有効性を広範囲に評価した。
論文 参考訳(メタデータ) (2022-01-31T04:15:42Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。