論文の概要: DenseGNN: universal and scalable deeper graph neural networks for high-performance property prediction in crystals and molecules
- arxiv url: http://arxiv.org/abs/2501.03278v1
- Date: Sun, 05 Jan 2025 13:41:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:46:19.045615
- Title: DenseGNN: universal and scalable deeper graph neural networks for high-performance property prediction in crystals and molecules
- Title(参考訳): DenseGNN:結晶および分子の高性能特性予測のための普遍的でスケーラブルなディープグラフニューラルネットワーク
- Authors: Hongwei Du, Jiamin Wang, Jian Hui, Lanting Zhang, Hong Wang,
- Abstract要約: 本稿では,Dense Connectivity Network (DCN), Hierarchical Node-Edge-Graph Residual Networks (HRN), Local Structure Orders Embedding (LOPE)を活用するDenseGNNを紹介する。
DenseGNNは、JARVIS-DFT、Material Project、QM9などのデータセット上での最先端のパフォーマンスを実現し、GIN、Schnet、Hamnetといったモデルのパフォーマンスを改善している。
- 参考スコア(独自算出の注目度): 4.648990939177395
- License:
- Abstract: Generative models generate vast numbers of hypothetical materials, necessitating fast, accurate models for property prediction. Graph Neural Networks (GNNs) excel in this domain but face challenges like high training costs, domain adaptation issues, and over-smoothing. We introduce DenseGNN, which employs Dense Connectivity Network (DCN), Hierarchical Node-Edge-Graph Residual Networks (HRN), and Local Structure Order Parameters Embedding (LOPE) to address these challenges. DenseGNN achieves state-of-the-art performance on datasets such as JARVIS-DFT, Materials Project, and QM9, improving the performance of models like GIN, Schnet, and Hamnet on materials datasets. By optimizing atomic embeddings and reducing computational costs, DenseGNN enables deeper architectures and surpasses other GNNs in crystal structure distinction, approaching X-ray diffraction method accuracy. This advances materials discovery and design.
- Abstract(参考訳): 生成モデルは膨大な数の仮説材料を生成し、特性予測のために高速で正確なモデルを必要とする。
グラフニューラルネットワーク(GNN)はこの領域で優れているが、高いトレーニングコスト、ドメイン適応の問題、過剰スムーシングといった課題に直面している。
本稿では,Dense Connectivity Network (DCN), Hierarchical Node-Edge-Graph Residual Networks (HRN), Local Structure Order Parameters Embedding (LOPE)を活用するDenseGNNを紹介する。
DenseGNNは、JARVIS-DFT、Material Project、QM9などのデータセット上での最先端のパフォーマンスを実現し、GIN、Schnet、Hamnetといったモデルのパフォーマンスを改善している。
原子埋め込みの最適化と計算コストの削減により、DenseGNNはより深いアーキテクチャを可能にし、結晶構造の区別において他のGNNを上回り、X線回折法の精度に近づいた。
これは材料発見と設計の進歩である。
関連論文リスト
- Hybrid variable spiking graph neural networks for energy-efficient scientific machine learning [2.099922236065961]
本稿では,そのアーキテクチャ内で可変スパイキングニューロン(VSN)を用いて疎通信を促進するハイブリッド可変スパイキンググラフニューラルネットワーク(HVS-GNN)を提案する。
VSNは、スパースなイベント駆動型計算を推進しながらも、しばしば計算力学アプリケーションで遭遇する回帰タスクでもうまく機能する。
その結果,HVS-GNNは疎通信の促進とエネルギー効率の向上を図った。
論文 参考訳(メタデータ) (2024-12-12T15:47:17Z) - Demystifying Higher-Order Graph Neural Networks [17.85580660943616]
高階グラフニューラルネットワーク(HOGNN)とトポロジカルディープラーニングの関連アーキテクチャは、GNNモデルの重要なクラスである。
分類学を用いて、利用可能なHOGNNモデルを分析し、比較する。
分析の結果は、与えられたシナリオにおいて最も有益なGNNモデルを選択するのに役立つ洞察の集合として合成される。
論文 参考訳(メタデータ) (2024-06-18T17:57:11Z) - Unleash Graph Neural Networks from Heavy Tuning [33.948899558876604]
グラフニューラルネットワーク(GNN)は、グラフ型データ用に設計されたディープラーニングアーキテクチャである。
本稿では,光チューニングされた粗い探索中に保存されたチェックポイントから学習することで,高性能なGNNを直接生成するグラフ条件付き潜時拡散フレームワーク(GNN-Diff)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:23:47Z) - PyGFI: Analyzing and Enhancing Robustness of Graph Neural Networks
Against Hardware Errors [3.2780036095732035]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習において,有望な学習パラダイムとして登場した。
本稿では,ハードウェア故障とGNN精度の関係を理解することを目的とした,GNNレジリエンスの大規模かつ実証的研究を行う。
論文 参考訳(メタデータ) (2022-12-07T06:14:14Z) - GNN at the Edge: Cost-Efficient Graph Neural Network Processing over
Distributed Edge Servers [24.109721494781592]
グラフニューラルネットワーク(GNN)はまだ探索中であり、その広範な採用に対する大きな違いを示している。
本稿では,多層ヘテロジニアスエッジネットワーク上での分散GNN処理のコスト最適化について検討する。
提案手法は, 高速収束速度で95.8%以上のコスト削減を行い, デファクトベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2022-10-31T13:03:16Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。