論文の概要: Analysis of Atom-level pretraining with Quantum Mechanics (QM) data for Graph Neural Networks Molecular property models
- arxiv url: http://arxiv.org/abs/2405.14837v2
- Date: Mon, 27 May 2024 07:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 02:59:12.356026
- Title: Analysis of Atom-level pretraining with Quantum Mechanics (QM) data for Graph Neural Networks Molecular property models
- Title(参考訳): グラフニューラルネットワーク分子特性モデルのための量子力学(QM)データを用いた原子レベルの事前学習の解析
- Authors: Jose Arjona-Medina, Ramil Nugmanov,
- Abstract要約: 量子力学(QM)データを用いた原子レベルの事前トレーニングは、トレーニングデータとテストデータ間の分布類似性に関する仮定違反を軽減することができることを示す。
隠れ状態の分子表現を解析し、QMデータに対する分子レベルと原子レベルの事前学習の効果を比較するのは、これが初めてである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the rapid and significant advancements in deep learning for Quantitative Structure-Activity Relationship (QSAR) models, the challenge of learning robust molecular representations that effectively generalize in real-world scenarios to novel compounds remains an elusive and unresolved task. This study examines how atom-level pretraining with quantum mechanics (QM) data can mitigate violations of assumptions regarding the distributional similarity between training and test data and therefore improve performance and generalization in downstream tasks. In the public dataset Therapeutics Data Commons (TDC), we show how pretraining on atom-level QM improves performance overall and makes the activation of the features distributes more Gaussian-like which results in a representation that is more robust to distribution shifts. To the best of our knowledge, this is the first time that hidden state molecular representations are analyzed to compare the effects of molecule-level and atom-level pretraining on QM data.
- Abstract(参考訳): 定量的構造-活性関係(QSAR)モデルのためのディープラーニングの急速な進歩にもかかわらず、現実世界のシナリオを新しい化合物に効果的に一般化する堅牢な分子表現を学習するという課題は、解明され未解決の課題のままである。
本研究では、量子力学(QM)データを用いた原子レベルの事前トレーニングが、トレーニングデータとテストデータ間の分布類似性に関する仮定違反を緩和し、下流タスクのパフォーマンスと一般化を改善する方法について検討する。
公開データセット Therapeutics Data Commons (TDC) では、原子レベルのQMの事前トレーニングが全体的なパフォーマンスを向上し、機能の活性化がガウス的(Gaussian)的な結果をもたらすことを示し、分散シフトに対してより堅牢な表現をもたらす。
我々の知る限りでは、分子レベルと原子レベルの事前学習がQMデータに与える影響を比較するために隠れ状態の分子表現が分析されたのはこれが初めてである。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - Pretraining Graph Transformers with Atom-in-a-Molecule Quantum Properties for Improved ADMET Modeling [38.53065398127086]
我々は,グラフトランスフォーマーの事前学習が原子レベルの量子力学特性に与える影響を評価する。
原子量子力学的性質に基づいて事前訓練されたモデルは、より低周波ラプラシアン固有モードを捕捉する。
論文 参考訳(メタデータ) (2024-10-10T15:20:30Z) - ScholarChemQA: Unveiling the Power of Language Models in Chemical Research Question Answering [54.80411755871931]
質問回答(QA)は、言語モデルの推論と知識の深さを効果的に評価する。
化学QAは、複雑な化学情報を理解しやすい形式に効果的に翻訳することで、教育と研究の両方において重要な役割を担っている。
このデータセットは、不均衡なデータ分散や、潜在的に有用である可能性のあるかなりの量の未ラベルデータを含む、典型的な現実世界の課題を反映している。
収集したデータを完全に活用して,化学的な問題に効果的に答えるQAMatchモデルを提案する。
論文 参考訳(メタデータ) (2024-07-24T01:46:55Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Atomic and Subgraph-aware Bilateral Aggregation for Molecular
Representation Learning [57.670845619155195]
我々は、原子とサブグラフを意識したバイラテラルアグリゲーション(ASBA)と呼ばれる分子表現学習の新しいモデルを導入する。
ASBAは、両方の種類の情報を統合することで、以前の原子単位とサブグラフ単位のモデルの限界に対処する。
本手法は,分子特性予測のための表現をより包括的に学習する方法を提供する。
論文 参考訳(メタデータ) (2023-05-22T00:56:00Z) - Pre-training via Denoising for Molecular Property Prediction [53.409242538744444]
本稿では,3次元分子構造の大規模データセットを平衡に利用した事前学習手法について述べる。
近年のノイズレギュラー化の進展に触発されて, 事前学習の目的は, 雑音の除去に基づくものである。
論文 参考訳(メタデータ) (2022-05-31T22:28:34Z) - Improving Molecular Representation Learning with Metric
Learning-enhanced Optimal Transport [49.237577649802034]
分子レグレッション問題に対する一般化能力を高めるために,MROTと呼ばれる新しい最適輸送ベースアルゴリズムを開発した。
MROTは最先端のモデルよりも優れており、新しい物質の発見を加速する有望な可能性を示している。
論文 参考訳(メタデータ) (2022-02-13T04:56:18Z) - Do Large Scale Molecular Language Representations Capture Important
Structural Information? [31.76876206167457]
本稿では,MoLFormerと呼ばれる効率的なトランスフォーマーエンコーダモデルのトレーニングにより得られた分子埋め込みについて述べる。
実験の結果,グラフベースおよび指紋ベースによる教師付き学習ベースラインと比較して,学習された分子表現が競合的に機能することが確認された。
論文 参考訳(メタデータ) (2021-06-17T14:33:55Z) - Predicting molecular dipole moments by combining atomic partial charges
and atomic dipoles [3.0980025155565376]
高レベル結合クラスター理論を用いて計算した分子$boldsymbolmu$を再現するために、「MuML」モデルが組み合わされた。
校正委員会モデルを用いて予測の不確かさを確実に推定できることを実証する。
論文 参考訳(メタデータ) (2020-03-27T14:35:37Z) - Embedded-physics machine learning for coarse-graining and collective
variable discovery without data [3.222802562733787]
基礎となる物理を一貫して組み込む新しい学習フレームワークを提案する。
原子間力場の形で利用可能な物理学を完全に組み込んだ逆クルバック・リーブラー分岐に基づく新しい目的を提案する。
本研究は,バイモーダルポテンシャルエネルギー関数とアラニンジペプチドに対するCVの予測能力および物理的意義の観点からアルゴリズムの進歩を実証する。
論文 参考訳(メタデータ) (2020-02-24T10:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。