論文の概要: Cardinality-Preserving Structured Sparse Graph Transformers for Molecular Property Prediction
- arxiv url: http://arxiv.org/abs/2602.02201v1
- Date: Mon, 02 Feb 2026 15:05:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.242765
- Title: Cardinality-Preserving Structured Sparse Graph Transformers for Molecular Property Prediction
- Title(参考訳): 分子特性予測のための心身保護型構造化スパースグラフ変換器
- Authors: Abhijit Gupta,
- Abstract要約: グラフ変換器**CardinalGraphFormer*は、Graphormerにインスパイアされた構造バイアスを組み込んだものだ。
CardinalGraphFormerは、完全にマッチした評価プロトコルの下で、評価された11タスクの平均パフォーマンスを改善する。
MoleculeNet、OGB、TDC ADMETタスクにまたがる11の公開ベンチマークのうち、統計的に有意な増加を実現している。
- 参考スコア(独自算出の注目度): 1.1168121941015015
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Drug discovery motivates efficient molecular property prediction under limited labeled data. Chemical space is vast, often estimated at approximately 10^60 drug-like molecules, while only thousands of drugs have been approved. As a result, self-supervised pretraining on large unlabeled molecular corpora has become essential for data-efficient molecular representation learning. We introduce **CardinalGraphFormer**, a graph transformer that incorporates Graphormer-inspired structural biases, including shortest-path distance and centrality, as well as direct-bond edge bias, within a structured sparse attention regime limited to shortest-path distance <= 3. The model further augments this design with a cardinality-preserving unnormalized aggregation channel over the same support set. Pretraining combines contrastive graph-level alignment with masked attribute reconstruction. Under a fully matched evaluation protocol, CardinalGraphFormer improves mean performance across all 11 evaluated tasks and achieves statistically significant gains on 10 of 11 public benchmarks spanning MoleculeNet, OGB, and TDC ADMET tasks when compared to strong reproduced baselines.
- Abstract(参考訳): 薬物発見は、限られたラベル付きデータの下で効率的な分子特性予測を動機付ける。
化学空間は広く、しばしば約10^60の薬物様分子と推定されるが、数千の薬物のみが承認されている。
その結果、大規模未ラベル分子コーパスによる自己教師付き事前学習は、データ効率のよい分子表現学習に欠かせないものとなった。
グラフ変換器である**CardinalGraphFormer*は,最短パス距離<=3。
このモデルは、同じサポートセット上の濃度保存非正規化集約チャネルで、この設計をさらに強化する。
事前トレーニングは、対照的なグラフレベルのアライメントとマスク属性の再構成を組み合わせる。
完全にマッチした評価プロトコルの下で、CardinalGraphFormerは、評価された11タスクの平均性能を改善し、強力な再現ベースラインと比較して、MoreculeNet、OGB、TDC ADMETタスクにまたがる11の公開ベンチマークのうち、統計的に有意なゲインを達成する。
関連論文リスト
- Composable Score-based Graph Diffusion Model for Multi-Conditional Molecular Generation [85.58520120011269]
本研究では,具体的スコアを用いてスコアマッチングを離散グラフに拡張するComposable Score-based Graph Diffusion Model (CSGD)を提案する。
CSGDは従来の手法よりも平均15.3%の制御性向上を実現していることを示す。
本研究は, 離散グラフ生成におけるスコアベースモデリングの実用的利点と, フレキシブルでマルチプロパタイトな分子設計のためのキャパシティを強調した。
論文 参考訳(メタデータ) (2025-09-11T13:37:56Z) - Structure-Aware Compound-Protein Affinity Prediction via Graph Neural Network with Group Lasso Regularization [11.87029706744257]
化合物タンパク質親和性を予測するためにグラフニューラルネットワーク(GNN)を実装したフレームワークを提案する。
我々は、グループラッソとスパースグループラッソカラー化正規化を用いて、構造認識損失関数を持つGNNを訓練する。
提案手法は,共通ノード情報と非共通ノード情報をスパースグループラッソに統合することにより,特性予測を改善した。
論文 参考訳(メタデータ) (2025-07-04T06:12:18Z) - Fragment-based Pretraining and Finetuning on Molecular Graphs [0.0]
標識されていない分子データは豊富になり、化学領域におけるGNNの自己教師付き学習の急速な発展を促進する。
本稿では,ノードレベルとグラフレベルの事前学習の限界を克服するために,フラグメントレベルでの事前学習を提案する。
グラフフラグメントに基づく事前学習(GraphFP)では,8つの共通分子ベンチマークのうち5つのパフォーマンスが向上し,少なくとも11.5%の長範囲生物学的ベンチマークのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-05T03:01:09Z) - GraphCL-DTA: a graph contrastive learning with molecular semantics for
drug-target binding affinity prediction [2.523552067304274]
GraphCL-DTAは、薬物表現を学習する分子グラフのためのグラフコントラスト学習フレームワークである。
次に、薬物と標的表現の均一性を調整するために直接使用できる新しい損失関数を設計する。
上記のイノベーティブな要素の有効性は、2つの実際のデータセットで検証される。
論文 参考訳(メタデータ) (2023-07-18T06:01:37Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule Representations [68.32093648671496]
分子に固有の二重レベル構造を考慮に入れたGODEを導入する。
分子は固有のグラフ構造を持ち、より広い分子知識グラフ内のノードとして機能する。
異なるグラフ構造上の2つのGNNを事前学習することにより、GODEは対応する知識グラフサブ構造と分子構造を効果的に融合させる。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - BatmanNet: Bi-branch Masked Graph Transformer Autoencoder for Molecular
Representation [21.03650456372902]
分子表現を学習するバイブランチマスク付きグラフトランスフォーマーオートエンコーダ(BatmanNet)を提案する。
BatmanNetは2つの補完グラフと非対称グラフオートエンコーダを備えており、欠落したノードとエッジを再構築する。
分子特性予測、薬物と薬物の相互作用、薬物と標的の相互作用など、複数の薬物発見タスクの最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-11-25T09:44:28Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。