論文の概要: DGTN: Graph-Enhanced Transformer with Diffusive Attention Gating Mechanism for Enzyme DDG Prediction
- arxiv url: http://arxiv.org/abs/2511.05483v1
- Date: Fri, 07 Nov 2025 18:52:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.867807
- Title: DGTN: Graph-Enhanced Transformer with Diffusive Attention Gating Mechanism for Enzyme DDG Prediction
- Title(参考訳): DGTN:酵素DDG予測のための拡散注意ゲーティング機構付きグラフ強化トランス
- Authors: Abigail Lin,
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)の重み付けと拡散機構によるトランスフォーマーアテンションを共学習する新しいアーキテクチャであるDGTNを提案する。
GNNから派生した構造埋め込みは、学習可能な拡散カーネルを介してトランスフォーマーの注意を誘導し、(2)トランスフォーマー表現は、注目変調グラフ更新を介してGNNのメッセージを洗練する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting the effect of amino acid mutations on enzyme thermodynamic stability (DDG) is fundamental to protein engineering and drug design. While recent deep learning approaches have shown promise, they often process sequence and structure information independently, failing to capture the intricate coupling between local structural geometry and global sequential patterns. We present DGTN (Diffused Graph-Transformer Network), a novel architecture that co-learns graph neural network (GNN) weights for structural priors and transformer attention through a diffusion mechanism. Our key innovation is a bidirectional diffusion process where: (1) GNN-derived structural embeddings guide transformer attention via learnable diffusion kernels, and (2) transformer representations refine GNN message passing through attention-modulated graph updates. We provide rigorous mathematical analysis showing this co-learning scheme achieves provably better approximation bounds than independent processing. On ProTherm and SKEMPI benchmarks, DGTN achieves state-of-the-art performance (Pearson Rho = 0.87, RMSE = 1.21 kcal/mol), with 6.2% improvement over best baselines. Ablation studies confirm the diffusion mechanism contributes 4.8 points to correlation. Our theoretical analysis proves the diffused attention converges to optimal structure-sequence coupling, with convergence rate O(1/sqrt(T) ) where T is diffusion steps. This work establishes a principled framework for integrating heterogeneous protein representations through learnable diffusion.
- Abstract(参考訳): 酵素熱力学的安定性(DDG)に対するアミノ酸変異の影響を予測することは、タンパク質工学と薬物設計の基礎となる。
最近のディープラーニングアプローチは将来性を示しているが、しばしばシーケンスと構造情報を独立に処理し、局所的な構造幾何学とグローバルなシーケンシャルパターンの複雑な結合を捉えることに失敗する。
DGTN(Diffused Graph-Transformer Network)は,グラフニューラルネットワーク(GNN)の重み付けと拡散機構によるトランスフォーマーの注意を共学習する新しいアーキテクチャである。
GNNから派生した構造埋め込みは、学習可能な拡散カーネルを介してトランスフォーマーの注意を誘導し、(2)トランスフォーマー表現は、注目変調グラフ更新を介してGNNのメッセージを洗練する。
我々は,このコラーニング手法が独立処理よりも高い近似限界を達成することを示す厳密な数学的解析を行う。
ProThermとSKEMPIのベンチマークでは、DGTNは最先端のパフォーマンス(Pearson Rho = 0.87, RMSE = 1.21 kcal/mol)を達成する。
アブレーション研究は拡散機構が相関に4.8点を寄与していることを確認した。
我々の理論的解析は、拡散された注意は、T が拡散ステップであるような収束速度 O(1/sqrt(T) ) で、最適構造列結合に収束することを示した。
この研究は、学習可能な拡散を通じて不均一なタンパク質表現を統合するための原則的な枠組みを確立する。
関連論文リスト
- Spiking Graph Neural Network on Riemannian Manifolds [51.15400848660023]
グラフニューラルネットワーク(GNN)は、グラフの学習において支配的なソリューションとなっている。
既存のスパイク GNN はユークリッド空間のグラフを考慮し、構造幾何学を無視している。
マニフォールド値スパイキングGNN(MSG)を提案する。
MSGは従来のGNNよりも優れた性能とエネルギー効率を実現している。
論文 参考訳(メタデータ) (2024-10-23T15:09:02Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - A Generalized Neural Diffusion Framework on Graphs [36.867530311300925]
我々は, 拡散過程とより多くのGNNの関係を正式に確立する, 忠実度項を持つ一般拡散方程式フレームワークを提案する。
高次拡散方程式では、HiD-Netは攻撃に対してより堅牢であり、ホモフィリーグラフとヘテロフィリーグラフの両方で作用する。
論文 参考訳(メタデータ) (2023-12-14T02:41:12Z) - Supercharging Graph Transformers with Advective Diffusion [28.40109111316014]
本稿では,この課題に対処するために,物理に着想を得たグラフトランスモデルであるAdvDIFFormerを提案する。
本稿では,AdvDIFFormerが位相シフトによる一般化誤差を制御できることを示す。
経験的に、このモデルは情報ネットワーク、分子スクリーニング、タンパク質相互作用の様々な予測タスクにおいて優位性を示す。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - EBM-Fold: Fully-Differentiable Protein Folding Powered by Energy-based
Models [53.17320541056843]
本研究では,データ駆動型生成ネットワークを用いたタンパク質構造最適化手法を提案する。
EBM-Foldアプローチは,従来のロゼッタ構造最適化ルーチンと比較して,高品質なデコイを効率よく生成できる。
論文 参考訳(メタデータ) (2021-05-11T03:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。