論文の概要: Instruction-Based Molecular Graph Generation with Unified Text-Graph Diffusion Model
- arxiv url: http://arxiv.org/abs/2408.09896v1
- Date: Mon, 19 Aug 2024 11:09:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 16:35:11.014481
- Title: Instruction-Based Molecular Graph Generation with Unified Text-Graph Diffusion Model
- Title(参考訳): 統一テキストグラフ拡散モデルを用いた命令型分子グラフ生成
- Authors: Yuran Xiang, Haiteng Zhao, Chang Ma, Zhi-Hong Deng,
- Abstract要約: Unified Text-Graph Diffusion Model (UTGDiff) は命令から分子グラフを生成するフレームワークである。
UTGDiffは、事前訓練された言語モデルから派生したデノナイジングネットワークとして統一されたテキストグラフ変換器を備えている。
実験の結果,UTGDiffは命令ベース分子の生成と編集に関わるタスクにおいて,シーケンスベースベースラインを一貫して上回っていることがわかった。
- 参考スコア(独自算出の注目度): 22.368332915420606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in computational chemistry have increasingly focused on synthesizing molecules based on textual instructions. Integrating graph generation with these instructions is complex, leading most current methods to use molecular sequences with pre-trained large language models. In response to this challenge, we propose a novel framework, named $\textbf{UTGDiff (Unified Text-Graph Diffusion Model)}$, which utilizes language models for discrete graph diffusion to generate molecular graphs from instructions. UTGDiff features a unified text-graph transformer as the denoising network, derived from pre-trained language models and minimally modified to process graph data through attention bias. Our experimental results demonstrate that UTGDiff consistently outperforms sequence-based baselines in tasks involving instruction-based molecule generation and editing, achieving superior performance with fewer parameters given an equivalent level of pretraining corpus. Our code is availble at https://github.com/ran1812/UTGDiff.
- Abstract(参考訳): 計算化学の最近の進歩は、テキストの指示に基づいて分子を合成することに集中している。
グラフ生成をこれらの命令と統合することは複雑であり、既存のほとんどの手法では、事前訓練された大きな言語モデルで分子配列を使用することができる。
この課題に対応するために、離散グラフ拡散に言語モデルを用いて命令から分子グラフを生成する、$\textbf{UTGDiff (Unified Text-Graph Diffusion Model)$という新しいフレームワークを提案する。
UTGDiffは、事前訓練された言語モデルから派生し、注意バイアスを通じてグラフデータを処理するために最小限に修正された、統一されたテキストグラフ変換器をデノナイジングネットワークとして特徴付けている。
実験の結果,UTGDiffは命令ベースの分子生成および編集に関わるタスクにおいて,シーケンスベースベースラインを一貫して上回り,同等の事前学習コーパスを与えられたパラメータが少なくて優れた性能を発揮することがわかった。
私たちのコードはhttps://github.com/ran1812/UTGDiff.comで利用可能です。
関連論文リスト
- Pre-trained Molecular Language Models with Random Functional Group Masking [54.900360309677794]
SMILESをベースとしたアンダーリネム分子アンダーリネム言語アンダーリネムモデルを提案し,特定の分子原子に対応するSMILESサブシーケンスをランダムにマスキングする。
この技術は、モデルに分子構造や特性をよりよく推測させ、予測能力を高めることを目的としている。
論文 参考訳(メタデータ) (2024-11-03T01:56:15Z) - Explanation Graph Generation via Generative Pre-training over Synthetic
Graphs [6.25568933262682]
説明グラフの生成は,ユーザの入力に応じて説明グラフを作成することを目的とした重要なタスクである。
現在の研究では、ラベル付きグラフで注釈付けされた小さな下流データセット上で、テキストベースの事前学習言語モデルを微調整するのが一般的である。
本稿では,説明グラフ生成タスクのための新しい事前学習フレームワークEG3Pを提案する。
論文 参考訳(メタデータ) (2023-06-01T13:20:22Z) - GIMLET: A Unified Graph-Text Model for Instruction-Based Molecule
Zero-Shot Learning [71.89623260998934]
本研究は,ゼロショット環境下での分子関連タスクの実現に自然言語命令を用いることの実現可能性について検討する。
既存の分子テキストモデルは、命令の不十分な処理とグラフの限られた容量のために、この設定では性能が良くない。
グラフデータとテキストデータの両方の言語モデルを統合するGIMLETを提案する。
論文 参考訳(メタデータ) (2023-05-28T18:27:59Z) - Graph Generation with Diffusion Mixture [57.78958552860948]
グラフの生成は、非ユークリッド構造の複雑な性質を理解する必要がある実世界のタスクにとって大きな課題である。
本稿では,拡散過程の最終グラフ構造を明示的に学習することにより,グラフのトポロジーをモデル化する生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T17:07:46Z) - Conditional Diffusion Based on Discrete Graph Structures for Molecular
Graph Generation [32.66694406638287]
分子グラフ生成のための離散グラフ構造(CDGS)に基づく条件拡散モデルを提案する。
具体的には、微分方程式(SDE)を用いて、グラフ構造と固有の特徴の両方に対して前方グラフ拡散過程を構築する。
本稿では,中間グラフ状態からグローバルコンテキストと局所ノードエッジ依存性を抽出する,特殊なハイブリッドグラフノイズ予測モデルを提案する。
論文 参考訳(メタデータ) (2023-01-01T15:24:15Z) - Explanation Graph Generation via Pre-trained Language Models: An
Empirical Study with Contrastive Learning [84.35102534158621]
エンドツーエンドで説明グラフを生成する事前学習言語モデルについて検討する。
本稿では,ノードとエッジの編集操作によるグラフ摂動の簡易かつ効果的な方法を提案する。
提案手法は,説明グラフの構造的精度と意味的精度を両立させる。
論文 参考訳(メタデータ) (2022-04-11T00:58:27Z) - Data-Efficient Graph Grammar Learning for Molecular Generation [41.936515793383]
本稿では,一般的なベンチマークよりも小さなサイズのデータセットから学習可能な,データ効率のよい生成モデルを提案する。
学習したグラフ文法は、3つのモノマーデータセットに対して高品質な分子を生成するための最先端の結果をもたらす。
また, 本手法は, トレーニングサンプル117ドルで, 難易度の高いポリマー生成タスクにおいて, 顕著な性能を実現している。
論文 参考訳(メタデータ) (2022-03-15T16:14:30Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Molecular graph generation with Graph Neural Networks [2.7393821783237184]
MG2N2と呼ばれる一連のグラフニューラルネットワークモジュールに基づくシーケンシャルな分子グラフジェネレーターを紹介します。
我々のモデルは、過度に適合することなく、トレーニング段階で見られる分子パターンを一般化することができる。
論文 参考訳(メタデータ) (2020-12-14T10:32:57Z) - Neural Language Modeling for Contextualized Temporal Graph Generation [49.21890450444187]
本稿では,大規模事前学習言語モデルを用いた文書のイベントレベル時間グラフの自動生成に関する最初の研究について述べる。
論文 参考訳(メタデータ) (2020-10-20T07:08:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。