論文の概要: Scalable deeper graph neural networks for high-performance materials
property prediction
- arxiv url: http://arxiv.org/abs/2109.12283v1
- Date: Sat, 25 Sep 2021 05:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:13:28.170828
- Title: Scalable deeper graph neural networks for high-performance materials
property prediction
- Title(参考訳): 高性能材料特性予測のためのスケーラブル深層ニューラルネットワーク
- Authors: Sadman Sadeed Omee, Steph-Yves Louis, Nihang Fu, Lai Wei, Sourin Dey,
Rongzhi Dong, Qinyang Li, Jianjun Hu
- Abstract要約: 本稿では,グループ分け可能な正規化とスキップ接続が可能な新しいグラフ注意ニューラルネットワークモデルDeeperGATGNNを提案する。
我々の研究は、結晶構造をそれらの性質にマッピングする複雑さに対処するためには、堅牢な性能を達成するために大規模な非常に深いグラフニューラルネットワークが必要であることを示している。
- 参考スコア(独自算出の注目度): 1.9129213267332026
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning (ML) based materials discovery has emerged as one of the
most promising approaches for breakthroughs in materials science. While
heuristic knowledge based descriptors have been combined with ML algorithms to
achieve good performance, the complexity of the physicochemical mechanisms
makes it urgently needed to exploit representation learning from either
compositions or structures for building highly effective materials machine
learning models. Among these methods, the graph neural networks have shown the
best performance by its capability to learn high-level features from crystal
structures. However, all these models suffer from their inability to scale up
the models due to the over-smoothing issue of their message-passing GNN
architecture. Here we propose a novel graph attention neural network model
DeeperGATGNN with differentiable group normalization and skip-connections,
which allows to train very deep graph neural network models (e.g. 30 layers
compared to 3-9 layers in previous works). Through systematic benchmark studies
over six benchmark datasets for energy and band gap predictions, we show that
our scalable DeeperGATGNN model needs little costly hyper-parameter tuning for
different datasets and achieves the state-of-the-art prediction performances
over five properties out of six with up to 10\% improvement. Our work shows
that to deal with the high complexity of mapping the crystal materials
structures to their properties, large-scale very deep graph neural networks are
needed to achieve robust performances.
- Abstract(参考訳): 機械学習(ML)に基づく材料発見は、材料科学におけるブレークスルーの最も有望なアプローチの1つである。
ヒューリスティックな知識に基づく記述子は、優れた性能を達成するためにmlアルゴリズムと組み合わせられているが、物理化学的メカニズムの複雑さにより、高効率な材料機械学習モデルを構築するために、構成や構造から表現学習を利用する必要がある。
これらの手法のうち、グラフニューラルネットワークは、結晶構造からハイレベルな特徴を学習する能力により、最高の性能を示している。
しかしながら、これらのモデルはすべて、メッセージパッシングGNNアーキテクチャの過度にスムースな問題のため、モデルをスケールアップできない。
本稿では,非常に深いグラフニューラルネットワークモデルを訓練できる,微分可能なグループ正規化とスキップ接続を備えたグラフ注意ニューラルネットワークモデルdeepgatgnnを提案する。
エネルギーとバンドギャップの予測のための6つのベンチマークデータセットに関する系統的なベンチマーク研究を通じて、我々のスケーラブルなDeeperGATGNNモデルは、異なるデータセットに対してコストのかかるハイパーパラメータチューニングをほとんど必要とせず、最大10倍改善した6つの特性のうち5つ以上の最先端の予測性能を達成することを示した。
我々の研究は、結晶構造をそれらの性質にマッピングする複雑さに対処するためには、堅牢な性能を達成するために大規模な非常に深いグラフニューラルネットワークが必要であることを示している。
関連論文リスト
- Enhancing material property prediction with ensemble deep graph convolutional networks [9.470117608423957]
近年の取り組みは、プロパティ予測にディープラーニングベースのグラフニューラルネットワークを含む高度なMLアルゴリズムの採用に重点を置いている。
本研究は,物質特性予測タスクを対象とする深層学習に基づくグラフニューラルネットワークにおけるアンサンブル戦略の詳細な評価を行う。
CGCNN(Crystal Graph Convolutional Neural Network)とそのマルチタスクバージョンであるMT-CGCNNを試験することにより、アンサンブル技術、特に予測平均化が従来のメトリクスを超える精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-07-26T16:12:06Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Evolutionary Architecture Search for Graph Neural Networks [23.691915813153496]
本稿では,大規模グラフニューラルネットワーク(GNN)アーキテクチャ空間における個々のモデルの進化を通じて,新しいAutoMLフレームワークを提案する。
我々の知る限りでは、GNNモデルの進化的アーキテクチャ探索を導入し、評価する最初の試みである。
論文 参考訳(メタデータ) (2020-09-21T22:11:53Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Global Attention based Graph Convolutional Neural Networks for Improved
Materials Property Prediction [8.371766047183739]
我々は,グラフニューラルネットワークに基づく無機材料特性の予測モデルであるGATGNNを開発した。
提案手法は, 従来のモデルの予測よりも優れており, 材料の結晶化に関する知見を提供することができる。
論文 参考訳(メタデータ) (2020-03-11T07:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。