論文の概要: Permutation invariant graph-to-sequence model for template-free
retrosynthesis and reaction prediction
- arxiv url: http://arxiv.org/abs/2110.09681v1
- Date: Tue, 19 Oct 2021 01:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 14:03:15.963218
- Title: Permutation invariant graph-to-sequence model for template-free
retrosynthesis and reaction prediction
- Title(参考訳): テンプレートなし逆合成と反応予測のための置換不変グラフ列列モデル
- Authors: Zhengkai Tu, Connor W. Coley
- Abstract要約: 本稿では,テキスト生成のためのトランスフォーマーモデルのパワーと,分子グラフエンコーダの置換不変性を組み合わせた新しいGraph2SMILESモデルについて述べる。
エンドツーエンドアーキテクチャとして、Graph2SMILESは、分子から分子への変換を含むあらゆるタスクにおいて、Transformerのドロップイン置換として使用できる。
- 参考スコア(独自算出の注目度): 2.5655440962401617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesis planning and reaction outcome prediction are two fundamental
problems in computer-aided organic chemistry for which a variety of data-driven
approaches have emerged. Natural language approaches that model each problem as
a SMILES-to-SMILES translation lead to a simple end-to-end formulation, reduce
the need for data preprocessing, and enable the use of well-optimized machine
translation model architectures. However, SMILES representations are not an
efficient representation for capturing information about molecular structures,
as evidenced by the success of SMILES augmentation to boost empirical
performance. Here, we describe a novel Graph2SMILES model that combines the
power of Transformer models for text generation with the permutation invariance
of molecular graph encoders that mitigates the need for input data
augmentation. As an end-to-end architecture, Graph2SMILES can be used as a
drop-in replacement for the Transformer in any task involving
molecule(s)-to-molecule(s) transformations. In our encoder, an
attention-augmented directed message passing neural network (D-MPNN) captures
local chemical environments, and the global attention encoder allows for
long-range and intermolecular interactions, enhanced by graph-aware positional
embedding. Graph2SMILES improves the top-1 accuracy of the Transformer
baselines by $1.7\%$ and $1.9\%$ for reaction outcome prediction on USPTO_480k
and USPTO_STEREO datasets respectively, and by $9.8\%$ for one-step
retrosynthesis on the USPTO_50k dataset.
- Abstract(参考訳): 合成計画と反応結果予測は、様々なデータ駆動アプローチが出現したコンピュータ支援有機化学における2つの基本的な問題である。
各問題をSMILESからSMILESへの変換としてモデル化する自然言語アプローチは、単純なエンドツーエンドの定式化をもたらし、データ前処理の必要性を低減し、最適化された機械翻訳モデルアーキテクチャの使用を可能にする。
しかし、SMILESの表現は、経験的性能を高めるためのSMILES増強の成功によって証明されたように、分子構造に関する情報を取得するための効率的な表現ではない。
本稿では、テキスト生成のためのTransformerモデルのパワーと、入力データ拡張の必要性を緩和する分子グラフエンコーダの置換不変性を組み合わせた、新しいGraph2SMILESモデルについて述べる。
エンドツーエンドアーキテクチャとして、Graph2SMILESは、分子から分子への変換を含むあらゆるタスクにおいて、Transformerのドロップイン置換として使用できる。
我々のエンコーダでは,D-MPNN(At attention-augmented Direct Message Passing Neural Network)が局所的な化学環境を捕捉し,グローバルアテンションエンコーダは,グラフ認識位置埋め込みによって強化された長距離および分子間相互作用を可能にする。
Graph2SMILESは、USPTO_480kデータセットとUSPTO_STEREOデータセットの反応結果予測で1.7\%と1.9\%、USPTO_50kデータセットで1段階の逆合成で9.8\%の改善を行う。
関連論文リスト
- Variable-size Symmetry-based Graph Fourier Transforms for image compression [65.7352685872625]
可変サイズのグラフフーリエ変換を符号化フレームワークに導入する。
提案アルゴリズムは,ノード間の特定の対称接続を追加することにより,グリッド上の対称グラフを生成する。
実験により、SBGFTは、明示的な多重変換選択に統合された一次変換よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-24T13:00:44Z) - Interpretable Lightweight Transformer via Unrolling of Learned Graph Smoothness Priors [16.04850782310842]
我々は反復最適化アルゴリズムをアンロールすることで、解釈可能で軽量なトランスフォーマーのようなニューラルネットワークを構築する。
正規化信号依存グラフ学習モジュールは、従来の変圧器の基本自己保持機構の変種に相当する。
論文 参考訳(メタデータ) (2024-06-06T14:01:28Z) - Synergistic Fusion of Graph and Transformer Features for Enhanced
Molecular Property Prediction [0.0]
本稿では,GNN と Transformer の事前学習機能を組み合わせた新しい手法を提案する。
このアプローチは包括的分子表現を提供し、大域分子構造と個々の原子特性の両方をキャプチャする。
MoleculeNetベンチマークの実験結果は,7つの分類データセット中5つ,6つの回帰データセット中4つに,以前のモデルよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-08-25T14:47:46Z) - Dynamic Molecular Graph-based Implementation for Biophysical Properties
Prediction [9.112532782451233]
本稿では,タンパク質-リガンド相互作用の動的特徴を特徴付けるため,GNNを用いたトランスフォーマーモデルに基づく新しいアプローチを提案する。
我々のメッセージパッシングトランスフォーマーは、物理シミュレーションに基づく分子動力学データに基づいて事前訓練を行い、座標構成を学習し、結合確率と親和性予測を行う。
論文 参考訳(メタデータ) (2022-12-20T04:21:19Z) - G2GT: Retrosynthesis Prediction with Graph to Graph Attention Neural
Network and Self-Training [0.0]
再合成予測は有機化学および関連分野における基本的な課題の1つである。
本稿では,グラフエンコーダとグラフデコーダを標準トランス構造上に構築した新しいグラフ-グラフ変換モデルG2GTを提案する。
本稿では,データ拡張手法である自己学習が,モデルの性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2022-04-19T01:55:52Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Learning Attributed Graph Representations with Communicative Message
Passing Transformer [3.812358821429274]
分子グラフ表現を改善するために,コミュニケーティブメッセージパッシングトランス (CoMPT) ニューラルネットワークを提案する。
分子を完全連結グラフとして扱う従来のトランスフォーマースタイルのGNNとは異なり、グラフ接続帰納バイアスを利用するメッセージ拡散機構を導入する。
論文 参考訳(メタデータ) (2021-07-19T11:58:32Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z) - Retrosynthesis Prediction with Conditional Graph Logic Network [118.70437805407728]
コンピュータ支援のレトロシンセシスは、化学と計算機科学の双方から新たな関心を集めている。
本稿では,グラフニューラルネットワーク上に構築された条件付きグラフィカルモデルであるConditional Graph Logic Networkを用いて,この課題に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-06T05:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。