論文の概要: BERT Learns (and Teaches) Chemistry
- arxiv url: http://arxiv.org/abs/2007.16012v1
- Date: Sat, 11 Jul 2020 00:23:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 12:51:22.254963
- Title: BERT Learns (and Teaches) Chemistry
- Title(参考訳): BERTが化学(とティーチ)を学ぶ
- Authors: Josh Payne, Mario Srouji, Dian Ang Yap, Vineet Kosaraju
- Abstract要約: そこで本研究では,データ駆動の観点から,機能基および他の特性に影響を及ぼす分子サブ構造の研究に注意を払わせることを提案する。
次に, モデルで学習した官能基と原子の表現を適用し, 毒性, 溶解度, 薬物類似性, アクセシビリティの問題に対処する。
- 参考スコア(独自算出の注目度): 5.653789128055942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern computational organic chemistry is becoming increasingly data-driven.
There remain a large number of important unsolved problems in this area such as
product prediction given reactants, drug discovery, and metric-optimized
molecule synthesis, but efforts to solve these problems using machine learning
have also increased in recent years. In this work, we propose the use of
attention to study functional groups and other property-impacting molecular
substructures from a data-driven perspective, using a transformer-based model
(BERT) on datasets of string representations of molecules and analyzing the
behavior of its attention heads. We then apply the representations of
functional groups and atoms learned by the model to tackle problems of
toxicity, solubility, drug-likeness, and synthesis accessibility on smaller
datasets using the learned representations as features for graph convolution
and attention models on the graph structure of molecules, as well as
fine-tuning of BERT. Finally, we propose the use of attention visualization as
a helpful tool for chemistry practitioners and students to quickly identify
important substructures in various chemical properties.
- Abstract(参考訳): 現代の計算有機化学はデータ駆動化が進んでいる。
この領域では、反応剤の製品予測、薬物発見、メートル最適化分子合成などの重要な未解決問題が多く残っているが、近年では機械学習を用いてこれらの問題を解く取り組みも増えている。
本研究では,分子の文字列表現のデータセット上での変換器モデル (BERT) を用いて,データ駆動の観点から関数群やその他の特性に影響を及ぼす分子サブ構造の研究に注意を向けることを提案する。
次に,本モデルで学習した官能基と原子の表現を適用し,毒性,溶解度,薬物類似性,および小さなデータセットに対する合成アクセシビリティの問題をグラフ畳み込みおよび分子のグラフ構造への注意モデルの特徴として利用し,BERTの微調整を行った。
最後に,様々な化学特性において重要なサブ構造を迅速に識別する上で,化学実践者や学生にとって有用なツールとして注意の可視化の利用を提案する。
関連論文リスト
- Active Causal Learning for Decoding Chemical Complexities with Targeted Interventions [0.0]
そこで本研究では,戦略的サンプリングを通じて原因・影響関係を識別する能動的学習手法を提案する。
この方法は、より大きな化学空間の最も多くの情報を符号化できるデータセットの最小サブセットを特定する。
その後、同定された因果関係を利用して体系的な介入を行い、モデルがこれまで遭遇していなかった化学空間における設計タスクを最適化する。
論文 参考訳(メタデータ) (2024-04-05T17:15:48Z) - MolGrapher: Graph-based Visual Recognition of Chemical Structures [50.13749978547401]
化学構造を視覚的に認識するためにMolGrapherを導入する。
すべての候補原子と結合をノードとして扱い、それらをグラフ化する。
グラフニューラルネットワークを用いてグラフ内の原子と結合ノードを分類する。
論文 参考訳(メタデータ) (2023-08-23T16:16:11Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule
Representations [55.42602325017405]
本稿では,分子の2レベル構造を考慮した新しいGODE法を提案する。
異なるグラフ構造上で2つのグラフニューラルネットワーク(GNN)を事前訓練し、対照的な学習と組み合わせることで、GODEは分子構造を対応する知識グラフサブ構造と融合させる。
11の化学特性タスクを微調整した場合、我々のモデルは既存のベンチマークよりも優れており、分類タスクの平均ROC-AUCアップリフトは13.8%、回帰タスクの平均RMSE/MAEエンハンスメントは35.1%である。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - Atomic and Subgraph-aware Bilateral Aggregation for Molecular
Representation Learning [57.670845619155195]
我々は、原子とサブグラフを意識したバイラテラルアグリゲーション(ASBA)と呼ばれる分子表現学習の新しいモデルを導入する。
ASBAは、両方の種類の情報を統合することで、以前の原子単位とサブグラフ単位のモデルの限界に対処する。
本手法は,分子特性予測のための表現をより包括的に学習する方法を提供する。
論文 参考訳(メタデータ) (2023-05-22T00:56:00Z) - HiGNN: Hierarchical Informative Graph Neural Networks for Molecular
Property Prediction Equipped with Feature-Wise Attention [5.735627221409312]
分子特性を予測するための階層型情報グラフニューラルネットワークフレームワーク(HiGNN)を提案する。
実験により、HiGNNは、多くの挑戦的な薬物発見関連ベンチマークデータセットに対して最先端の予測性能を達成することが示された。
論文 参考訳(メタデータ) (2022-08-30T05:16:15Z) - Graph neural networks for the prediction of molecular structure-property
relationships [59.11160990637615]
グラフニューラルネットワーク(GNN)は、分子グラフ上で直接動作する新しい機械学習手法である。
GNNは、エンドツーエンドでプロパティを学習できるため、情報記述子の必要性を回避することができる。
本稿では、分子特性予測のための2つの例を通して、GNNの基礎を説明し、GNNの応用を実証する。
論文 参考訳(メタデータ) (2022-07-25T11:30:44Z) - Semi-Supervised GCN for learning Molecular Structure-Activity
Relationships [4.468952886990851]
そこで本稿では,半教師付き学習を用いたグラフ-グラフ間ニューラルネットワークの学習手法を提案する。
最終目標として、我々のアプローチは、アクティビティ崖、リード最適化、デノボドラッグデザインといった問題に対処するための貴重なツールとなる可能性がある。
論文 参考訳(メタデータ) (2022-01-25T09:09:43Z) - Molecular Graph Generation via Geometric Scattering [7.796917261490019]
グラフニューラルネットワーク(GNN)は、薬物の設計と発見の問題を解決するために広く使われている。
分子グラフ生成における表現第一のアプローチを提案する。
我々のアーキテクチャは、医薬品のデータセットの有意義な表現を学習し、目標指向の薬物合成のためのプラットフォームを提供する。
論文 参考訳(メタデータ) (2021-10-12T18:00:23Z) - Do Large Scale Molecular Language Representations Capture Important
Structural Information? [31.76876206167457]
本稿では,MoLFormerと呼ばれる効率的なトランスフォーマーエンコーダモデルのトレーニングにより得られた分子埋め込みについて述べる。
実験の結果,グラフベースおよび指紋ベースによる教師付き学習ベースラインと比較して,学習された分子表現が競合的に機能することが確認された。
論文 参考訳(メタデータ) (2021-06-17T14:33:55Z) - ASGN: An Active Semi-supervised Graph Neural Network for Molecular
Property Prediction [61.33144688400446]
本稿では,ラベル付き分子とラベルなし分子の両方を組み込んだ,アクティブ半教師付きグラフニューラルネットワーク(ASGN)を提案する。
教師モデルでは,分子構造や分子分布から情報を共同で活用する汎用表現を学習するための,新しい半教師付き学習手法を提案する。
最後に,分子多様性の観点から,フレームワーク学習全体を通して情報的データを選択するための新しい能動的学習戦略を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:22:39Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。