論文の概要: Relative Molecule Self-Attention Transformer
- arxiv url: http://arxiv.org/abs/2110.05841v1
- Date: Tue, 12 Oct 2021 09:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 13:14:12.176929
- Title: Relative Molecule Self-Attention Transformer
- Title(参考訳): 相対分子自己着脱トランスフォーマ
- Authors: {\L}ukasz Maziarka, Dawid Majchrowski, Tomasz Danel, Piotr Gai\'nski,
Jacek Tabor, Igor Podolak, Pawe{\l} Morkisz, Stanis{\l}aw Jastrz\k{e}bski
- Abstract要約: Relative Molecule Attention Transformer (R-MAT) は、新しいトランスフォーマーベースのモデルである。
我々の主な貢献は、R-MAT(Relative Molecule Attention Transformer)である。これは、新しいトランスフォーマーベースのモデルであり、分子特性予測タスクの幅広い範囲において、最先端または非常に競争的な結果を達成する。
- 参考スコア(独自算出の注目度): 4.020171169198032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning holds promise to revolutionize molecule property
prediction - a central task to drug discovery and many more industries - by
enabling data efficient learning from scarce experimental data. Despite
significant progress, non-pretrained methods can be still competitive in
certain settings. We reason that architecture might be a key bottleneck. In
particular, enriching the backbone architecture with domain-specific inductive
biases has been key for the success of self-supervised learning in other
domains. In this spirit, we methodologically explore the design space of the
self-attention mechanism tailored to molecular data. We identify a novel
variant of self-attention adapted to processing molecules, inspired by the
relative self-attention layer, which involves fusing embedded graph and
distance relationships between atoms. Our main contribution is Relative
Molecule Attention Transformer (R-MAT): a novel Transformer-based model based
on the developed self-attention layer that achieves state-of-the-art or very
competitive results across a~wide range of molecule property prediction tasks.
- Abstract(参考訳): 自己監督学習は、希少な実験データからのデータ効率的な学習を可能にすることで、分子特性予測(創薬と多くの産業にとって中心的なタスク)に革命をもたらすことを約束している。
かなりの進歩にもかかわらず、未訓練のメソッドは特定の設定でまだ競争力がある。
アーキテクチャが重要なボトルネックになるかも知れないからです。
特に、バックボーンアーキテクチャをドメイン固有の帰納バイアスで強化することは、他のドメインにおける自己教師型学習の成功の鍵となった。
本研究では,分子データに合わせた自己保持機構の設計空間を方法論的に探索する。
我々は,原子間の距離関係とグラフの融合を含む,相対的な自己アテンション層に着想を得た,プロセス分子に適応した新しい自己アテンションの変種を同定する。
我々の主な貢献は、R-MAT(Relative Molecule Attention Transformer)である。これは、新しいトランスフォーマーベースのモデルで、分子特性予測タスクの幅広い範囲にわたる最先端または非常に競争的な結果を達成する。
関連論文リスト
- Data-Efficient Molecular Generation with Hierarchical Textual Inversion [48.816943690420224]
分子生成のための階層型テキスト変換法 (HI-Mol) を提案する。
HI-Molは分子分布を理解する上での階層的情報、例えば粗い特徴ときめ細かい特徴の重要性にインスパイアされている。
単一レベルトークン埋め込みを用いた画像領域の従来のテキストインバージョン法と比較して, マルチレベルトークン埋め込みにより, 基礎となる低ショット分子分布を効果的に学習することができる。
論文 参考訳(メタデータ) (2024-05-05T08:35:23Z) - Zero Shot Molecular Generation via Similarity Kernels [0.6597195879147557]
ゼロショット分子生成の新しい手法である類似性に基づく分子生成(SiMGen)を提案する。
SiMGenは時間依存の類似性カーネルと事前訓練された機械学習力場からの記述子を組み合わせて分子を生成する。
また、ユーザがSiMGenで構造をオンラインで生成できるインタラクティブなWebツールもリリースしました。
論文 参考訳(メタデータ) (2024-02-13T17:53:44Z) - Implicit Geometry and Interaction Embeddings Improve Few-Shot Molecular
Property Prediction [53.06671763877109]
我々は, 複雑な分子特性を符号化した分子埋め込みを開発し, 数発の分子特性予測の性能を向上させる。
我々の手法は大量の合成データ、すなわち分子ドッキング計算の結果を利用する。
複数の分子特性予測ベンチマークでは、埋め込み空間からのトレーニングにより、マルチタスク、MAML、プロトタイプラーニング性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-02-04T01:32:40Z) - Discovery of structure-property relations for molecules via
hypothesis-driven active learning over the chemical space [0.0]
本稿では,仮説学習に基づく化学空間上の能動的学習のための新しいアプローチを提案する。
我々は,データサブセットの小さな部分集合に基づいて,関心の構造と機能の関係性に関する仮説を構築した。
このアプローチでは、SISSOやアクティブラーニングといったシンボリックレグレッションメソッドの要素をひとつのフレームワークに統合する。
論文 参考訳(メタデータ) (2023-01-06T14:22:43Z) - A Molecular Multimodal Foundation Model Associating Molecule Graphs with
Natural Language [63.60376252491507]
本稿では,分子グラフとその意味的関連テキストデータから事前学習した分子マルチモーダル基礎モデルを提案する。
我々のモデルは、生物学、化学、材料、環境、医学などの分野において、AIを動力とする分野に幅広い影響を与えるだろうと考えています。
論文 参考訳(メタデータ) (2022-09-12T00:56:57Z) - Transferring Chemical and Energetic Knowledge Between Molecular Systems
with Machine Learning [5.27145343046974]
本稿では,単純な分子システムから得られた知識をより複雑なものに伝達するための新しい手法を提案する。
我々は、高低自由エネルギー状態の分類に焦点をあてる。
以上の結果より, トリアラニンからデカアラニン系への移行学習において, 0.92 の顕著な AUC が得られた。
論文 参考訳(メタデータ) (2022-05-06T16:21:00Z) - Geometric Transformer for End-to-End Molecule Properties Prediction [92.28929858529679]
分子特性予測のためのトランスフォーマーに基づくアーキテクチャを導入し,分子の形状を捉える。
分子幾何学の初期符号化による古典的な位置エンコーダと、学習されたゲート自己保持機構を改変する。
論文 参考訳(メタデータ) (2021-10-26T14:14:40Z) - Deep Molecular Dreaming: Inverse machine learning for de-novo molecular
design and interpretability with surjective representations [1.433758865948252]
コンピュータビジョンを用いた勾配に基づく分子最適化手法PASITHEAを提案する。
ニューラルネットワークの学習プロセスを直接反転させることで勾配の利用を生かし、実際の化学特性を予測するために訓練される。
その結果は予備的ですが、逆トレーニング中の選択されたプロパティの分布の変化、PASITHEAの生存可能性を明確に示しています。
論文 参考訳(メタデータ) (2020-12-17T16:34:59Z) - Advanced Graph and Sequence Neural Networks for Molecular Property
Prediction and Drug Discovery [53.00288162642151]
計算モデルや分子表現にまたがる包括的な機械学習ツール群であるMoleculeKitを開発した。
これらの表現に基づいて構築されたMoeculeKitには、ディープラーニングと、グラフとシーケンスデータのための従来の機械学習方法の両方が含まれている。
オンラインおよびオフラインの抗生物質発見と分子特性予測のタスクの結果から、MoneculeKitは以前の方法よりも一貫した改善を実現していることがわかる。
論文 参考訳(メタデータ) (2020-12-02T02:09:31Z) - ASGN: An Active Semi-supervised Graph Neural Network for Molecular
Property Prediction [61.33144688400446]
本稿では,ラベル付き分子とラベルなし分子の両方を組み込んだ,アクティブ半教師付きグラフニューラルネットワーク(ASGN)を提案する。
教師モデルでは,分子構造や分子分布から情報を共同で活用する汎用表現を学習するための,新しい半教師付き学習手法を提案する。
最後に,分子多様性の観点から,フレームワーク学習全体を通して情報的データを選択するための新しい能動的学習戦略を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:22:39Z) - Molecule Attention Transformer [5.441166835871135]
そこで本研究では,分子特性予測タスクで競合する単一ニューラルネットワークアーキテクチャを設計するために,分子注意変換(MAT)を提案する。
我々の重要な革新は、原子間距離と分子グラフ構造を用いてトランスフォーマーの注意機構を強化することである。
論文 参考訳(メタデータ) (2020-02-19T16:14:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。