論文の概要: Bridging the Gap between Learning and Inference for Diffusion-Based Molecule Generation
- arxiv url: http://arxiv.org/abs/2411.05472v1
- Date: Fri, 08 Nov 2024 10:53:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:54:04.857122
- Title: Bridging the Gap between Learning and Inference for Diffusion-Based Molecule Generation
- Title(参考訳): 拡散型分子生成のための学習と推論のギャップを埋める
- Authors: Peidong Liu, Wenbo Zhang, Xue Zhe, Jiancheng Lv, Xianggen Liu,
- Abstract要約: GapDiffは、トレーニングと推論の間のデータ分散の相違を緩和するトレーニングフレームワークである。
我々は,CrossDocked 2020データセット上で3次元分子生成モデルを用いて実験を行った。
- 参考スコア(独自算出の注目度): 18.936142688346816
- License:
- Abstract: The efficacy of diffusion models in generating a spectrum of data modalities, including images, text, and videos, has spurred inquiries into their utility in molecular generation, yielding significant advancements in the field. However, the molecular generation process with diffusion models involves multiple autoregressive steps over a finite time horizon, leading to exposure bias issues inherently. To address the exposure bias issue, we propose a training framework named GapDiff. The core idea of GapDiff is to utilize model-predicted conformations as ground truth probabilistically during training, aiming to mitigate the data distributional disparity between training and inference, thereby enhancing the affinity of generated molecules. We conduct experiments using a 3D molecular generation model on the CrossDocked2020 dataset, and the vina energy and diversity demonstrate the potency of our framework with superior affinity. GapDiff is available at \url{https://github.com/HUGHNew/gapdiff}.
- Abstract(参考訳): 画像、テキスト、ビデオを含むデータモダリティのスペクトル生成における拡散モデルの有効性は、分子生成における彼らの有用性に疑問を喚起し、この分野において大きな進歩をもたらした。
しかし、拡散モデルによる分子生成過程は、有限時間水平線上の複数の自己回帰ステップを伴い、露光バイアスの問題を本質的に引き起こす。
露出バイアス問題に対処するため,GapDiffというトレーニングフレームワークを提案する。
GapDiffの中核となる考え方は、トレーニング中にモデル予測型コンフォメーションを基底真理確率的に利用し、トレーニングと推論の間のデータ分散の格差を緩和し、生成分子の親和性を高めることである。
我々は、CrossDocked2020データセット上で3次元分子生成モデルを用いて実験を行い、ビナエネルギーと多様性は、より親和性の良いフレームワークの有用性を示す。
GapDiff は \url{https://github.com/HUGHNew/gapdiff} で入手できる。
関連論文リスト
- Conditional Synthesis of 3D Molecules with Time Correction Sampler [58.0834973489875]
Time-Aware Conditional Synthesis (TACS) は拡散モデルにおける条件生成の新しい手法である。
適応的に制御されたプラグアンドプレイの"オンライン"ガイダンスを拡散モデルに統合し、サンプルを所望の特性に向けて駆動する。
論文 参考訳(メタデータ) (2024-11-01T12:59:25Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
我々は,要求に応じて所望の分布に基づいて制約付き拡散モデルを開発する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Context-Guided Diffusion for Out-of-Distribution Molecular and Protein Design [30.241533997522236]
我々は、ラベルのないデータと滑らかな制約を利用して、ガイド付き拡散モデルのアウト・オブ・ディストリビューション一般化を改善するシンプルなプラグ・アンド・プレイ法である文脈誘導拡散法(CGD)を開発した。
このアプローチは、連続的、離散的、グラフ構造化された拡散プロセスや、薬物発見、材料科学、タンパク質設計にまたがる応用など、様々な状況において、大幅なパフォーマンス向上をもたらす。
論文 参考訳(メタデータ) (2024-07-16T17:34:00Z) - LDMol: Text-to-Molecule Diffusion Model with Structurally Informative Latent Space [55.5427001668863]
テキスト条件付き分子生成のための遅延拡散モデル LDMol を提案する。
LDMolは、学習可能で構造的に有意な特徴空間を生成する分子オートエンコーダを含む。
我々は,LDMolを分子間検索やテキスト誘導分子編集などの下流タスクに適用できることを示す。
論文 参考訳(メタデータ) (2024-05-28T04:59:13Z) - Geometric-Facilitated Denoising Diffusion Model for 3D Molecule Generation [32.464905769094536]
既存の拡散に基づくデノボ3次元分子生成法は2つの大きな課題に直面している。
本研究では,グローバル空間関係を完全に抽出し,高品質な表現を学習するためのDual-Track Transformer Network(DTN)を提案する。
第2の課題は、エッジを直接潜伏空間に埋め込むのではなく、トレーニング期間中に結合の形成に介入する幾何学的識別損失(GFLoss)を設計することである。
論文 参考訳(メタデータ) (2024-01-05T07:29:21Z) - Navigating the Design Space of Equivariant Diffusion-Based Generative
Models for De Novo 3D Molecule Generation [1.3124513975412255]
深部生成拡散モデル(Deep Generative diffusion model)は、材料科学と薬物発見における3D de novo分子設計のための有望な道である。
E(3)-同変拡散モデルの設計空間を探索し、未探索領域に焦点をあてる。
本稿では,QM9データセットとGEOM-Drugsデータセットの確立したモデルよりも一貫して優れるEQGAT-diffモデルを提案する。
論文 参考訳(メタデータ) (2023-09-29T14:53:05Z) - Directional diffusion models for graph representation learning [9.457273750874357]
我々は方向拡散モデルと呼ばれる新しいモデルのクラスを提案する。
これらのモデルは前方拡散過程にデータ依存、異方性、指向性ノイズを含む。
我々は,2つのグラフ表現学習タスクに焦点をあてて,12の公開データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2023-06-22T21:27:48Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Diffusion Models in Vision: A Survey [80.82832715884597]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。