論文の概要: Geometry-aware Line Graph Transformer Pre-training for Molecular
Property Prediction
- arxiv url: http://arxiv.org/abs/2309.00483v1
- Date: Fri, 1 Sep 2023 14:20:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 13:08:38.676146
- Title: Geometry-aware Line Graph Transformer Pre-training for Molecular
Property Prediction
- Title(参考訳): 分子特性予測のための幾何アウェアライングラフトランスプレトレーニング
- Authors: Peizhen Bai, Xianyuan Liu, Haiping Lu
- Abstract要約: Geometry-Aware line graph transformer (Galformer) は、新しい自己教師型学習フレームワークである。
Galformerは、分類タスクと回帰タスクの両方において、すべてのベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 4.598522704308923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Molecular property prediction with deep learning has gained much attention
over the past years. Owing to the scarcity of labeled molecules, there has been
growing interest in self-supervised learning methods that learn generalizable
molecular representations from unlabeled data. Molecules are typically treated
as 2D topological graphs in modeling, but it has been discovered that their 3D
geometry is of great importance in determining molecular functionalities. In
this paper, we propose the Geometry-aware line graph transformer (Galformer)
pre-training, a novel self-supervised learning framework that aims to enhance
molecular representation learning with 2D and 3D modalities. Specifically, we
first design a dual-modality line graph transformer backbone to encode the
topological and geometric information of a molecule. The designed backbone
incorporates effective structural encodings to capture graph structures from
both modalities. Then we devise two complementary pre-training tasks at the
inter and intra-modality levels. These tasks provide properly supervised
information and extract discriminative 2D and 3D knowledge from unlabeled
molecules. Finally, we evaluate Galformer against six state-of-the-art
baselines on twelve property prediction benchmarks via downstream fine-tuning.
Experimental results show that Galformer consistently outperforms all baselines
on both classification and regression tasks, demonstrating its effectiveness.
- Abstract(参考訳): 近年, 深層学習による分子特性予測が注目されている。
ラベル付き分子の不足により、ラベルなしデータから一般化可能な分子表現を学習する自己教師付き学習手法への関心が高まっている。
分子は通常モデリングにおいて2次元トポロジカルグラフとして扱われるが、それらの3次元幾何学が分子機能を決定する上で非常に重要であることが判明した。
本稿では,2次元および3次元モダリティを用いた分子表現学習の促進を目的とした,新しい自己教師付き学習フレームワークであるgeometry-aware line graph transformer (galformer) pre-trainingを提案する。
具体的には、分子のトポロジ的および幾何学的情報を符号化する双モード線グラフ変換器のバックボーンを設計する。
デザインされたバックボーンは、両方のモダリティからグラフ構造をキャプチャする効果的な構造符号化を組み込んでいる。
次に,モダリティレベルとモダリティレベルの2つの補完的事前訓練タスクを考案した。
これらのタスクは、適切に管理された情報を提供し、ラベルのない分子から識別可能な2Dおよび3D知識を抽出する。
最後に,ダウンストリーム微調整による12のプロパティ予測ベンチマークにおいて,galformerを6つの最先端ベースラインに対して評価する。
実験の結果、Galformerは分類タスクと回帰タスクの両方のベースラインを一貫して上回り、その効果を示した。
関連論文リスト
- Automated 3D Pre-Training for Molecular Property Prediction [54.15788181794094]
新たな3D事前学習フレームワーク(3D PGT)を提案する。
3D分子グラフのモデルを事前訓練し、3D構造のない分子グラフに微調整する。
提案した3次元PGTの精度, 効率, 一般化能力を示すために, 2次元分子グラフの大規模実験を行った。
論文 参考訳(メタデータ) (2023-06-13T14:43:13Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule
Representations [55.42602325017405]
本稿では,分子の2レベル構造を考慮した新しいGODE法を提案する。
異なるグラフ構造上で2つのグラフニューラルネットワーク(GNN)を事前訓練し、対照的な学習と組み合わせることで、GODEは分子構造を対応する知識グラフサブ構造と融合させる。
11の化学特性タスクを微調整した場合、我々のモデルは既存のベンチマークよりも優れており、分類タスクの平均ROC-AUCアップリフトは13.8%、回帰タスクの平均RMSE/MAEエンハンスメントは35.1%である。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - An Equivariant Generative Framework for Molecular Graph-Structure
Co-Design [54.92529253182004]
分子グラフ構造アンダーラインCo設計のための機械学習ベースの生成フレームワークであるMollCodeを提案する。
MolCodeでは、3D幾何情報によって分子2Dグラフの生成が促進され、それによって分子3D構造の予測が導かれる。
分子設計における2次元トポロジーと3次元幾何は本質的に相補的な情報を含んでいることが明らかとなった。
論文 参考訳(メタデータ) (2023-04-12T13:34:22Z) - 3D Infomax improves GNNs for Molecular Property Prediction [1.9703625025720701]
本稿では,2次元分子グラフのみに与えられる分子の幾何学をモデル化するための事前学習モデルを提案する。
我々は,3次元事前学習が幅広い特性に対して大きな改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-08T13:30:49Z) - GeomGCL: Geometric Graph Contrastive Learning for Molecular Property
Prediction [47.70253904390288]
本研究では2次元および3次元ビューにまたがる分子の幾何を利用した新しいグラフコントラスト学習法を提案する。
具体的には、分子の2次元グラフと3次元グラフの両方のリッチな情報を適応的に活用するために、2次元幾何学的メッセージパッシングネットワーク(GeomMPNN)を考案する。
論文 参考訳(メタデータ) (2021-09-24T03:55:27Z) - ChemRL-GEM: Geometry Enhanced Molecular Representation Learning for
Property Prediction [25.49976851499949]
化学表現学習のための新しい幾何強化分子表現学習法(GEM)を提案する。
まず、分子内の原子、結合、結合角を同時にモデル化する幾何学に基づくGNNアーキテクチャを設計する。
考案されたGNNアーキテクチャの上に,空間知識を学習するための幾何レベルの自己教師型学習戦略を提案する。
論文 参考訳(メタデータ) (2021-06-11T02:35:53Z) - GeoMol: Torsional Geometric Generation of Molecular 3D Conformer
Ensembles [60.12186997181117]
分子グラフからの分子の3Dコンホメーラーアンサンブルの予測は、化学情報学と薬物発見の領域において重要な役割を担っている。
既存の生成モデルは、重要な分子幾何学的要素のモデリングの欠如を含むいくつかの欠点がある。
エンド・ツー・エンド、非自己回帰、SE(3)不変の機械学習手法であるGeoMolを提案し、3Dコンバータを生成する。
論文 参考訳(メタデータ) (2021-06-08T14:17:59Z) - Molecular machine learning with conformer ensembles [0.0]
ChemPropやSchnetなどの主要なアーキテクチャに拡張された複数のディープラーニングモデルを紹介します。
次に、これらのモデルの性能トレードオフを2D、3D、4D表現で評価し、薬物活動の予測を行う。
新しいアーキテクチャは2Dモデルよりも大幅にパフォーマンスが向上するが、その性能は多くの場合、多くのモデルと同様、単一のコンフォーマを持つ。
論文 参考訳(メタデータ) (2020-12-15T17:44:48Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。