論文の概要: JTreeformer: Graph-Transformer via Latent-Diffusion Model for Molecular Generation
- arxiv url: http://arxiv.org/abs/2504.20770v1
- Date: Tue, 29 Apr 2025 13:51:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.913927
- Title: JTreeformer: Graph-Transformer via Latent-Diffusion Model for Molecular Generation
- Title(参考訳): JTreeformer:分子生成のための潜時拡散モデルによるグラフ変換器
- Authors: Ji Shi, Chengxun Xie, Zhonghao Li, Xinming Zhang, Miao Zhang,
- Abstract要約: 本稿では,グラフ生成を接合木生成に変換する際に,TextbfJTreeformerと呼ぶ,分子生成のためのグラフトランスフォーマーベースのフレームワークを構築することに焦点を当てる。
有向非環状GCNをグラフベースのトランスフォーマーに統合してデコーダとして機能し、各ステップで部分的に構築された分子構造からの情報を活用することで分子全体を反復的に合成することができる。
- 参考スコア(独自算出の注目度): 17.268526939713105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The discovery of new molecules based on the original chemical molecule distributions is of great importance in medicine. The graph transformer, with its advantages of high performance and scalability compared to traditional graph networks, has been widely explored in recent research for applications of graph structures. However, current transformer-based graph decoders struggle to effectively utilize graph information, which limits their capacity to leverage only sequences of nodes rather than the complex topological structures of molecule graphs. This paper focuses on building a graph transformer-based framework for molecular generation, which we call \textbf{JTreeformer} as it transforms graph generation into junction tree generation. It combines GCN parallel with multi-head attention as the encoder. It integrates a directed acyclic GCN into a graph-based Transformer to serve as a decoder, which can iteratively synthesize the entire molecule by leveraging information from the partially constructed molecular structure at each step. In addition, a diffusion model is inserted in the latent space generated by the encoder, to enhance the efficiency and effectiveness of sampling further. The empirical results demonstrate that our novel framework outperforms existing molecule generation methods, thus offering a promising tool to advance drug discovery (https://anonymous.4open.science/r/JTreeformer-C74C).
- Abstract(参考訳): 元の化学分子分布に基づく新しい分子の発見は、医学において非常に重要である。
グラフ変換器は、従来のグラフネットワークと比較して高性能でスケーラビリティの利点があるが、近年ではグラフ構造の適用について広く研究されている。
しかし、現在のトランスフォーマーベースのグラフデコーダは、分子グラフの複雑なトポロジ構造ではなく、ノードのシーケンスのみを活用する能力を制限するグラフ情報を有効に活用するのに苦労している。
本稿では,グラフ生成を接合木生成に変換するため,分子生成のためのグラフトランスフォーマーベースのフレームワークの構築に着目する。
GCN並列処理とエンコーダとしてのマルチヘッドアテンションを組み合わせる。
有向非環状GCNをグラフベースのトランスフォーマーに統合してデコーダとして機能し、各ステップで部分的に構築された分子構造からの情報を活用することで分子全体を反復的に合成することができる。
さらに、エンコーダによって生成された潜伏空間に拡散モデルが挿入され、サンプリングの効率性と効果がさらに向上する。
実験の結果,本フレームワークは既存の分子生成法より優れており,創薬を推進するための有望なツールを提供する(https://anonymous.4open.science/r/JTreeformer-C74C)。
関連論文リスト
- DiffMS: Diffusion Generation of Molecules Conditioned on Mass Spectra [60.39311767532607]
DiffMSは式制限エンコーダ-デコーダ生成ネットワークである。
我々は、潜伏埋め込みと分子構造を橋渡しする頑健なデコーダを開発する。
実験の結果、DiffMS は $textitde novo$ 分子生成で既存のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2025-02-13T18:29:48Z) - GraphXForm: Graph transformer for computer-aided molecular design [73.1842164721868]
既存の化合物を事前訓練したデコーダのみのグラフトランスフォーマアーキテクチャであるGraphXFormを提案する。
種々の薬物設計タスクで評価し、最先端の分子設計手法と比較して優れた客観的スコアを示す。
論文 参考訳(メタデータ) (2024-11-03T19:45:15Z) - Node-Aligned Graph-to-Graph (NAG2G): Elevating Template-Free Deep Learning Approaches in Single-Step Retrosynthesis [12.713263007109518]
有機化学における一段階の逆合成(SSR)は、コンピュータ合成設計における深層学習(DL)技術の恩恵を受けている。
テンプレート支援型DLモデルは、レトロシンセシス予測に柔軟で有望であるが、重要な2次元分子情報を無視し、ノード生成のための原子アライメントに苦慮することが多い。
変換器ベースのテンプレートフリーDLモデルであるNode-Aligned Graph-to-Graph (NAG2G)を紹介する。
論文 参考訳(メタデータ) (2023-09-27T17:16:32Z) - RGCVAE: Relational Graph Conditioned Variational Autoencoder for
Molecule Design [70.59828655929194]
ディープグラフ変分自動エンコーダは、この問題に対処可能な、最も強力な機械学習ツールの1つである。
i)新しい強力なグラフ同型ネットワークを利用した符号化ネットワーク,(ii)新しい確率的復号化コンポーネントを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:23:48Z) - GraphGANFed: A Federated Generative Framework for Graph-Structured
Molecules Towards Efficient Drug Discovery [2.309914459672556]
本稿では,ローカルデータセットを共有せずに新しい分子を生成するために,GraphGANFed(Federated Learning)フレームワークを用いたジェネレーティブ・アドバイサル・ネットワークにおけるグラフ畳み込みネットワークを提案する。
GraphGANFedによって生成される分子は、高い新規性(=100)と多様性(>0.9)を達成することができる
論文 参考訳(メタデータ) (2023-04-11T21:15:28Z) - Graph Generation with Diffusion Mixture [57.78958552860948]
グラフの生成は、非ユークリッド構造の複雑な性質を理解する必要がある実世界のタスクにとって大きな課題である。
本稿では,拡散過程の最終グラフ構造を明示的に学習することにより,グラフのトポロジーをモデル化する生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T17:07:46Z) - Molecular Graph Generation via Geometric Scattering [7.796917261490019]
グラフニューラルネットワーク(GNN)は、薬物の設計と発見の問題を解決するために広く使われている。
分子グラフ生成における表現第一のアプローチを提案する。
我々のアーキテクチャは、医薬品のデータセットの有意義な表現を学習し、目標指向の薬物合成のためのプラットフォームを提供する。
論文 参考訳(メタデータ) (2021-10-12T18:00:23Z) - Learning Attributed Graph Representations with Communicative Message
Passing Transformer [3.812358821429274]
分子グラフ表現を改善するために,コミュニケーティブメッセージパッシングトランス (CoMPT) ニューラルネットワークを提案する。
分子を完全連結グラフとして扱う従来のトランスフォーマースタイルのGNNとは異なり、グラフ接続帰納バイアスを利用するメッセージ拡散機構を導入する。
論文 参考訳(メタデータ) (2021-07-19T11:58:32Z) - GraphPiece: Efficiently Generating High-Quality Molecular Graph with
Substructures [7.021635649909492]
分子グラフからエムグラフと呼ばれる共通部分構造を自動的に発見する手法を提案する。
グラフの断片に基づいて,変分オートエンコーダを用いて2つの相の分子を生成する。
論文 参考訳(メタデータ) (2021-06-29T05:26:18Z) - A Graph VAE and Graph Transformer Approach to Generating Molecular
Graphs [1.6631602844999724]
グラフ畳み込み層とグラフプーリング層をフル活用した変分オートエンコーダとトランスベースモデルを提案する。
トランスモデルは新しいノードエンコーディング層を実装し、一般的にトランスフォーマーで使用される位置エンコーディングを置き換え、グラフ上で動く位置情報を持たないトランスフォーマーを生成する。
実験では、生成ノードとエッジの両方の重要性を考慮して、分子生成のベンチマークタスクを選択しました。
論文 参考訳(メタデータ) (2021-04-09T13:13:06Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z) - Uncovering the Folding Landscape of RNA Secondary Structure with Deep
Graph Embeddings [71.20283285671461]
このようなグラフ埋め込みを学習するための幾何散乱オートエンコーダ(GSAE)ネットワークを提案する。
我々の埋め込みネットワークは、最近提案された幾何散乱変換を用いて、まずリッチグラフ特徴を抽出する。
GSAEは、構造とエネルギーの両方でRNAグラフを整理し、ビスタブルRNA構造を正確に反映していることを示す。
論文 参考訳(メタデータ) (2020-06-12T00:17:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。