論文の概要: Benchmarking Pretrained Molecular Embedding Models For Molecular Representation Learning
- arxiv url: http://arxiv.org/abs/2508.06199v2
- Date: Wed, 13 Aug 2025 06:01:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 11:55:47.609507
- Title: Benchmarking Pretrained Molecular Embedding Models For Molecular Representation Learning
- Title(参考訳): 分子表現学習のための事前学習された分子埋め込みモデルのベンチマーク
- Authors: Mateusz Praski, Jakub Adamczyk, Wojciech Czech,
- Abstract要約: 事前学習されたニューラルネットワークは化学や小さな分子の薬物設計に大きな関心を集めている。
本研究は,25データセットにまたがる25モデルについて,これまでで最も広範な比較を行ったものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pretrained neural networks have attracted significant interest in chemistry and small molecule drug design. Embeddings from these models are widely used for molecular property prediction, virtual screening, and small data learning in molecular chemistry. This study presents the most extensive comparison of such models to date, evaluating 25 models across 25 datasets. Under a fair comparison framework, we assess models spanning various modalities, architectures, and pretraining strategies. Using a dedicated hierarchical Bayesian statistical testing model, we arrive at a surprising result: nearly all neural models show negligible or no improvement over the baseline ECFP molecular fingerprint. Only the CLAMP model, which is also based on molecular fingerprints, performs statistically significantly better than the alternatives. These findings raise concerns about the evaluation rigor in existing studies. We discuss potential causes, propose solutions, and offer practical recommendations.
- Abstract(参考訳): 事前学習されたニューラルネットワークは化学や小さな分子の薬物設計に大きな関心を集めている。
これらのモデルからの埋め込みは、分子特性予測、仮想スクリーニング、および分子化学における小さなデータ学習に広く利用されている。
本研究は,25データセットにまたがる25モデルについて,これまでで最も広範な比較を行ったものである。
公正な比較フレームワークの下で、様々なモダリティ、アーキテクチャ、事前学習戦略にまたがるモデルを評価する。
ニューラルネットワークのほぼすべてのモデルは、ベースラインのECFP分子指紋よりも無視できるか、全く改善されない。
分子指紋に基づくCLAMPモデルのみが、他のモデルよりも統計的にかなり優れている。
これらの知見は,既存研究における評価厳密性への懸念を提起するものである。
我々は潜在的な原因を議論し、解決策を提案し、実践的なレコメンデーションを提供する。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule Representations [68.32093648671496]
分子に固有の二重レベル構造を考慮に入れたGODEを導入する。
分子は固有のグラフ構造を持ち、より広い分子知識グラフ内のノードとして機能する。
異なるグラフ構造上の2つのGNNを事前学習することにより、GODEは対応する知識グラフサブ構造と分子構造を効果的に融合させる。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - Implicit Geometry and Interaction Embeddings Improve Few-Shot Molecular
Property Prediction [53.06671763877109]
我々は, 複雑な分子特性を符号化した分子埋め込みを開発し, 数発の分子特性予測の性能を向上させる。
我々の手法は大量の合成データ、すなわち分子ドッキング計算の結果を利用する。
複数の分子特性予測ベンチマークでは、埋め込み空間からのトレーニングにより、マルチタスク、MAML、プロトタイプラーニング性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-02-04T01:32:40Z) - Calibration and generalizability of probabilistic models on low-data
chemical datasets with DIONYSUS [0.0]
我々は、小さな化学データセット上での確率論的機械学習モデルの校正と一般化可能性について広範な研究を行う。
私たちは、さまざまなタスク(バイナリ、回帰)とデータセットにおける予測と不確実性の品質を分析します。
我々は、新しい化学実験において一般的なシナリオである、小さな化学データセットをモデル化するためのモデルと特徴の選択に関する実践的な洞察を提供する。
論文 参考訳(メタデータ) (2022-12-03T08:19:06Z) - Unraveling Key Elements Underlying Molecular Property Prediction: A
Systematic Study [27.56700461408765]
分子特性予測の根底にある重要な要素はほとんど未発見のままである。
我々は,MoreculeNetデータセット上の様々な表現を用いて,代表モデルの広範囲な評価を行う。
合計で62,820モデル、固定表現の50,220モデル、SMILES配列の4,200モデル、分子グラフの8,400モデルを含む訓練を行った。
論文 参考訳(メタデータ) (2022-09-26T14:07:59Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Conditional Constrained Graph Variational Autoencoders for Molecule
Design [70.59828655929194]
本稿では、このキーイデアを最先端のモデルで実装した、条件制約付きグラフ変分オートエンコーダ(CCGVAE)を提案する。
分子生成のために広く採用されている2つのデータセットについて、いくつかの評価指標について改善した結果を示す。
論文 参考訳(メタデータ) (2020-09-01T21:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。