論文の概要: Directed Graph Attention Neural Network Utilizing 3D Coordinates for
Molecular Property Prediction
- arxiv url: http://arxiv.org/abs/2012.00404v1
- Date: Tue, 1 Dec 2020 11:06:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 19:33:46.389952
- Title: Directed Graph Attention Neural Network Utilizing 3D Coordinates for
Molecular Property Prediction
- Title(参考訳): 分子特性予測のための3次元座標を用いたグラフ注意ニューラルネットワーク
- Authors: Chen Qian, Yunhai Xiong and Xiang Chen
- Abstract要約: カーネル法とグラフニューラルネットワークは、プロパティ予測の2つの主流手法として広く研究されている。
この研究では、化学結合のみをエッジとして扱うDirected Graph Attention Neural Network(DGANN)に光を当てた。
我々のモデルは、QM9データセット上で、ほとんどのベースライングラフニューラルネットワークにマッチするか、より優れています。
- 参考スコア(独自算出の注目度): 11.726245297344418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The prosperity of computer vision (CV) and natural language procession (NLP)
in recent years has spurred the development of deep learning in many other
domains. The advancement in machine learning provides us with an alternative
option besides the computationally expensive density functional theories (DFT).
Kernel method and graph neural networks have been widely studied as two
mainstream methods for property prediction. The promising graph neural networks
have achieved comparable accuracy to the DFT method for specific objects in the
recent study. However, most of the graph neural networks with high precision so
far require fully connected graphs with pairwise distance distribution as edge
information. In this work, we shed light on the Directed Graph Attention Neural
Network (DGANN), which only takes chemical bonds as edges and operates on bonds
and atoms of molecules. DGANN distinguishes from previous models with those
features: (1) It learns the local chemical environment encoding by graph
attention mechanism on chemical bonds. Every initial edge message only flows
into every message passing trajectory once. (2) The transformer blocks
aggregate the global molecular representation from the local atomic encoding.
(3) The position vectors and coordinates are used as inputs instead of
distances. Our model has matched or outperformed most baseline graph neural
networks on QM9 datasets even without thorough hyper-parameters searching.
Moreover, this work suggests that models directly utilizing 3D coordinates can
still reach high accuracies for molecule representation even without rotational
and translational invariance incorporated.
- Abstract(参考訳): 近年のコンピュータビジョン(cv)と自然言語処理(nlp)の繁栄は、他の多くの分野におけるディープラーニングの発展を促している。
機械学習の進歩は、計算に高価な密度汎関数理論(DFT)以外の選択肢を提供する。
カーネル法とグラフニューラルネットワークは、プロパティ予測の2つの主要な手法として広く研究されている。
有望なグラフニューラルネットワークは、最近の研究では、特定のオブジェクトに対するDFT法と同等の精度を達成した。
しかし、これまでのグラフニューラルネットワークの多くは、エッジ情報としてペア距離分布の完全な連結グラフを必要とする。
この研究で我々は、化学結合のみをエッジとして取り、結合や分子の原子を操作するDirected Graph Attention Neural Network(DGANN)に光を当てた。
1) 化学結合のグラフアテンション機構を用いて局所的な化学環境の符号化を学習する。
初期エッジメッセージは、すべてのメッセージパッシング軌跡に一度だけ流れ込む。
2) トランスブロックは局所的な原子エンコーディングからグローバルな分子表現を集約する。
(3)位置ベクトルと座標は距離の代わりに入力として使用される。
我々のモデルは、徹底したハイパーパラメーター探索がなくても、QM9データセット上のほとんどのベースライングラフニューラルネットワークに適合または性能を向上した。
さらに, 3次元座標を直接利用するモデルでは, 回転や翻訳の不変性が組み込まれなくても, 分子表現の精度が高いことが示唆された。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Deep Graph Stream SVDD: Anomaly Detection in Cyber-Physical Systems [17.373668215331737]
本稿では,異常検出のためのディープグラフベクトルデータ記述法(SVDD)を提案する。
まず、時間的埋め込みにおけるデータ監視の短絡パターンと長絡パターンの両方を保存するために、トランスフォーマーを使用します。
センサタイプに応じてこれらの埋め込みをクラスタリングし、各種センサ間の接続性の変化を推定し、新しい重み付きグラフを構築する。
論文 参考訳(メタデータ) (2023-02-24T22:14:39Z) - Convolutional Neural Networks on Manifolds: From Graphs and Back [122.06927400759021]
本稿では,多様体畳み込みフィルタと点次非線形性からなる多様体ニューラルネットワーク(MNN)を提案する。
要約すると、我々は大きなグラフの極限として多様体モデルに焦点を合わせ、MNNを構築するが、それでもMNNの離散化によってグラフニューラルネットワークを復活させることができる。
論文 参考訳(メタデータ) (2022-10-01T21:17:39Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Directional Message Passing on Molecular Graphs via Synthetic
Coordinates [7.314446024059812]
そこで本研究では, 分子構造を必要とせずに, 高度なGNNを利用できる合成座標を提案する。
この変換により、通常のグラフニューラルネットワークの誤差をZINCベンチマークで55%削減できることを示す。
さらに、SMPおよびDimeNet++モデルに合成座標を組み込むことにより、ZINCおよび座標自由QM9に関する技術の現状を規定する。
論文 参考訳(メタデータ) (2021-11-08T18:53:58Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Learning Graph Neural Networks with Positive and Unlabeled Nodes [34.903471348798725]
グラフニューラルネットワーク(GNN)は、グラフのノード分類など、トランスダクティブな学習タスクのための重要なツールです。
ほとんどのGNNモデルは、各ラウンドで短い距離から情報を集約し、グラフで長距離関係をキャプチャできません。
本論文では,これらの制限を克服するために,新しいグラフニューラルネットワークフレームワーク,LSDAN(Long-Short distance aggregation Network)を提案する。
論文 参考訳(メタデータ) (2021-03-08T11:43:37Z) - Pseudoinverse Graph Convolutional Networks: Fast Filters Tailored for
Large Eigengaps of Dense Graphs and Hypergraphs [0.0]
Graph Convolutional Networks (GCNs) は、グラフベースのデータセットで半教師付き分類を行うツールとして成功している。
本稿では,三部フィルタ空間が高密度グラフを対象とする新しいGCN変種を提案する。
論文 参考訳(メタデータ) (2020-08-03T08:48:41Z) - Isometric Graph Neural Networks [5.306334746787569]
我々はIsometric Graph Neural Networks (IGNN) の学習手法を提案する。
IGNNは、任意のGNNアルゴリズムがノード間の距離を反映した表現を生成するために、入力表現空間と損失関数を変更する必要がある。
我々はケンドールのタウ(KT)の400%まで、一貫した実質的な改善を観察する。
論文 参考訳(メタデータ) (2020-06-16T22:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。