論文の概要: Molecule Attention Transformer
- arxiv url: http://arxiv.org/abs/2002.08264v1
- Date: Wed, 19 Feb 2020 16:14:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:46:19.153403
- Title: Molecule Attention Transformer
- Title(参考訳): 分子注目トランスフォーマ
- Authors: {\L}ukasz Maziarka, Tomasz Danel, S{\l}awomir Mucha, Krzysztof Rataj,
Jacek Tabor, Stanis{\l}aw Jastrz\k{e}bski
- Abstract要約: そこで本研究では,分子特性予測タスクで競合する単一ニューラルネットワークアーキテクチャを設計するために,分子注意変換(MAT)を提案する。
我々の重要な革新は、原子間距離と分子グラフ構造を用いてトランスフォーマーの注意機構を強化することである。
- 参考スコア(独自算出の注目度): 5.441166835871135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing a single neural network architecture that performs competitively
across a range of molecule property prediction tasks remains largely an open
challenge, and its solution may unlock a widespread use of deep learning in the
drug discovery industry. To move towards this goal, we propose Molecule
Attention Transformer (MAT). Our key innovation is to augment the attention
mechanism in Transformer using inter-atomic distances and the molecular graph
structure. Experiments show that MAT performs competitively on a diverse set of
molecular prediction tasks. Most importantly, with a simple self-supervised
pretraining, MAT requires tuning of only a few hyperparameter values to achieve
state-of-the-art performance on downstream tasks. Finally, we show that
attention weights learned by MAT are interpretable from the chemical point of
view.
- Abstract(参考訳): 分子特性予測タスクで競争力のある単一のニューラルネットワークアーキテクチャを設計することは、大半がオープンな課題であり、そのソリューションは、薬物発見業界におけるディープラーニングの広範な使用を解き放つ可能性がある。
この目標に向けて,分子注意変換器(MAT)を提案する。
我々の重要な革新は、原子間距離と分子グラフ構造を用いてトランスフォーマーの注意機構を強化することである。
実験により、MATは様々な分子予測タスクで競争力を発揮することが示された。
最も重要なことは、単純な自己教師付き事前トレーニングによって、MATはダウンストリームタスクにおける最先端のパフォーマンスを達成するために、少数のハイパーパラメータ値をチューニングする必要があることである。
最後に, 化学的な観点から, MATで学習した注意重みが解釈可能であることを示す。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - Contrastive Dual-Interaction Graph Neural Network for Molecular Property Prediction [0.0]
本稿では,分子特性予測のための自己教師付きグラフニューラルネットワークフレームワークであるDIG-Molを紹介する。
DIG-Molは2つの相互接続ネットワークと運動量蒸留ネットワークを統合し、分子特性を効率的に改善する。
我々は,様々な分子特性予測タスクにおける広範囲な実験的評価により,DIG-Molの最先端性能を確立した。
論文 参考訳(メタデータ) (2024-05-04T10:09:27Z) - Asymmetric Contrastive Multimodal Learning for Advancing Chemical Understanding [18.217304893881405]
分子に適した新しいアプローチとして,非対称コントラスト型マルチモーダルラーニング(ACML)を導入する。
ACMLは効果的な非対称コントラスト学習の力を利用して、様々な化学修飾物から分子グラフ表現への情報をシームレスに伝達する。
このフレームワークの有効性を,大規模な相互モダリティ検索と異性判別タスクによって実証する。
論文 参考訳(メタデータ) (2023-11-11T01:58:45Z) - Implicit Geometry and Interaction Embeddings Improve Few-Shot Molecular
Property Prediction [53.06671763877109]
我々は, 複雑な分子特性を符号化した分子埋め込みを開発し, 数発の分子特性予測の性能を向上させる。
我々の手法は大量の合成データ、すなわち分子ドッキング計算の結果を利用する。
複数の分子特性予測ベンチマークでは、埋め込み空間からのトレーニングにより、マルチタスク、MAML、プロトタイプラーニング性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-02-04T01:32:40Z) - MolCPT: Molecule Continuous Prompt Tuning to Generalize Molecular
Representation Learning [77.31492888819935]
分子表現学習のための「プリトレイン,プロンプト,ファインチューン」という新しいパラダイム,分子連続プロンプトチューニング(MolCPT)を提案する。
MolCPTは、事前訓練されたモデルを使用して、スタンドアロンの入力を表現的なプロンプトに投影するモチーフプロンプト関数を定義する。
いくつかのベンチマークデータセットの実験により、MollCPTは分子特性予測のために学習済みのGNNを効率的に一般化することが示された。
論文 参考訳(メタデータ) (2022-12-20T19:32:30Z) - BatmanNet: Bi-branch Masked Graph Transformer Autoencoder for Molecular
Representation [21.03650456372902]
分子表現を学習するバイブランチマスク付きグラフトランスフォーマーオートエンコーダ(BatmanNet)を提案する。
BatmanNetは2つの補完グラフと非対称グラフオートエンコーダを備えており、欠落したノードとエッジを再構築する。
分子特性予測、薬物と薬物の相互作用、薬物と標的の相互作用など、複数の薬物発見タスクの最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-11-25T09:44:28Z) - Relative Molecule Self-Attention Transformer [4.020171169198032]
Relative Molecule Attention Transformer (R-MAT) は、新しいトランスフォーマーベースのモデルである。
我々の主な貢献は、R-MAT(Relative Molecule Attention Transformer)である。これは、新しいトランスフォーマーベースのモデルであり、分子特性予測タスクの幅広い範囲において、最先端または非常に競争的な結果を達成する。
論文 参考訳(メタデータ) (2021-10-12T09:05:26Z) - Do Large Scale Molecular Language Representations Capture Important
Structural Information? [31.76876206167457]
本稿では,MoLFormerと呼ばれる効率的なトランスフォーマーエンコーダモデルのトレーニングにより得られた分子埋め込みについて述べる。
実験の結果,グラフベースおよび指紋ベースによる教師付き学習ベースラインと比較して,学習された分子表現が競合的に機能することが確認された。
論文 参考訳(メタデータ) (2021-06-17T14:33:55Z) - Dual-view Molecule Pre-training [186.07333992384287]
デュアルビュー分子事前学習は、両方のタイプの分子表現の強さを効果的に組み合わせることができる。
DMPは9つの分子特性予測タスクでテストされ、そのうち7つで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-06-17T03:58:38Z) - MIMOSA: Multi-constraint Molecule Sampling for Molecule Optimization [51.00815310242277]
生成モデルと強化学習アプローチは、最初の成功をおさめたが、複数の薬物特性を同時に最適化する上で、依然として困難に直面している。
本稿では,MultI-Constraint MOlecule SAmpling (MIMOSA)アプローチ,初期推定として入力分子を用いるサンプリングフレームワーク,ターゲット分布からのサンプル分子を提案する。
論文 参考訳(メタデータ) (2020-10-05T20:18:42Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。