論文の概要: All-atom Diffusion Transformers: Unified generative modelling of molecules and materials
- arxiv url: http://arxiv.org/abs/2503.03965v1
- Date: Wed, 05 Mar 2025 23:35:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:14.740236
- Title: All-atom Diffusion Transformers: Unified generative modelling of molecules and materials
- Title(参考訳): 全原子拡散変換器:分子と物質の統一生成モデル
- Authors: Chaitanya K. Joshi, Xiang Fu, Yi-Lun Liao, Vahe Gharakhanyan, Benjamin Kurt Miller, Anuroop Sriram, Zachary W. Ulissi,
- Abstract要約: All-atom Diffusion Transformer (ADiT) は、周期的材料と非周期的分子システムの両方を共同生成するための統合潜在拡散フレームワークである。
QM9とMP20データセットの実験では、共同で訓練されたADiTが物質だけでなく現実的で有効な分子を生成することが示されている。
- 参考スコア(独自算出の注目度): 11.180029648567658
- License:
- Abstract: Diffusion models are the standard toolkit for generative modelling of 3D atomic systems. However, for different types of atomic systems - such as molecules and materials - the generative processes are usually highly specific to the target system despite the underlying physics being the same. We introduce the All-atom Diffusion Transformer (ADiT), a unified latent diffusion framework for jointly generating both periodic materials and non-periodic molecular systems using the same model: (1) An autoencoder maps a unified, all-atom representations of molecules and materials to a shared latent embedding space; and (2) A diffusion model is trained to generate new latent embeddings that the autoencoder can decode to sample new molecules or materials. Experiments on QM9 and MP20 datasets demonstrate that jointly trained ADiT generates realistic and valid molecules as well as materials, exceeding state-of-the-art results from molecule and crystal-specific models. ADiT uses standard Transformers for both the autoencoder and diffusion model, resulting in significant speedups during training and inference compared to equivariant diffusion models. Scaling ADiT up to half a billion parameters predictably improves performance, representing a step towards broadly generalizable foundation models for generative chemistry. Open source code: https://github.com/facebookresearch/all-atom-diffusion-transformer
- Abstract(参考訳): 拡散モデルは3次元原子系の生成モデリングの標準ツールキットである。
しかしながら、分子や物質のような異なる種類の原子系では、生成過程は、基礎となる物理が同じであるにもかかわらず、通常ターゲット系に非常に特異である。
1) オートエンコーダは、分子と物質の統一された全原子表現を共有潜在埋め込み空間にマッピングし、(2) 拡散モデルは、オートエンコーダが新しい分子や物質をサンプリングするためにデコードできる新しい潜在埋め込みを生成するために訓練される。
QM9とMP20データセットの実験では、共同で訓練されたADiTが物質だけでなく現実的で有効な分子を生成し、分子や結晶特有のモデルから最先端の結果を上回ることが示されている。
ADiTはオートエンコーダと拡散モデルの両方に標準トランスフォーマーを使用し、トレーニングと推論の間、同変拡散モデルと比較して大幅にスピードアップする。
ADiTを最大50億のパラメータにスケーリングすることで、予測性能が向上し、生成化学の幅広い一般化可能な基礎モデルへの一歩となる。
ソースコード:https://github.com/facebookresearch/all-atom-diffusion-transformer
関連論文リスト
- D3MES: Diffusion Transformer with multihead equivariant self-attention for 3D molecule generation [1.3791394805787949]
本稿では,拡散モデルDiffusion Transformerとマルチヘッド同型自己アテンションを組み合わせた3次元分子生成のための拡散モデルを提案する。
この方法は、2つの主要な課題に対処する: 水素原子を除去した後、分子の表現を学ぶことによって生成分子に水素原子を正しく取り付けること; 同時に複数のクラスにまたがる分子を生成できない既存のモデルの限界を克服すること。
論文 参考訳(メタデータ) (2025-01-13T06:16:11Z) - Conditional Synthesis of 3D Molecules with Time Correction Sampler [58.0834973489875]
Time-Aware Conditional Synthesis (TACS) は拡散モデルにおける条件生成の新しい手法である。
適応的に制御されたプラグアンドプレイの"オンライン"ガイダンスを拡散モデルに統合し、サンプルを所望の特性に向けて駆動する。
論文 参考訳(メタデータ) (2024-11-01T12:59:25Z) - LDMol: Text-to-Molecule Diffusion Model with Structurally Informative Latent Space [55.5427001668863]
テキスト条件付き分子生成のための遅延拡散モデル LDMol を提案する。
LDMolは、学習可能で構造的に有意な特徴空間を生成する分子オートエンコーダを含む。
我々は,LDMolを分子間検索やテキスト誘導分子編集などの下流タスクに適用できることを示す。
論文 参考訳(メタデータ) (2024-05-28T04:59:13Z) - Learning Joint 2D & 3D Diffusion Models for Complete Molecule Generation [32.66694406638287]
本研究では, 原子型, 正式な電荷, 結合情報, および3次元座標を持つ分子を生成する結合2Dおよび3D拡散モデル(JODO)を提案する。
我々のモデルは、単一または複数の量子特性をターゲットにした逆分子設計のために拡張することもできる。
論文 参考訳(メタデータ) (2023-05-21T04:49:53Z) - MUDiff: Unified Diffusion for Complete Molecule Generation [104.7021929437504]
本稿では,原子の特徴,2次元離散分子構造,および3次元連続分子座標を含む分子の包括的表現を生成する新しいモデルを提案する。
拡散過程を認知するための新しいグラフトランスフォーマーアーキテクチャを提案する。
我々のモデルは、安定で多様な分子を設計するための有望なアプローチであり、分子モデリングの幅広いタスクに適用できる。
論文 参考訳(メタデータ) (2023-04-28T04:25:57Z) - DiffBP: Generative Diffusion of 3D Molecules for Target Protein Binding [51.970607704953096]
従来の研究は通常、原子の要素タイプと3次元座標を1つずつ生成する自己回帰的な方法で原子を生成する。
現実世界の分子系では、分子全体の原子間の相互作用が大域的であり、原子間のエネルギー関数が結合する。
本研究では、標的タンパク質に基づく分子3次元構造の生成拡散モデルを構築し、非自己回帰的に全原子レベルで構築する。
論文 参考訳(メタデータ) (2022-11-21T07:02:15Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z) - Torsional Diffusion for Molecular Conformer Generation [28.225704750892795]
ねじれ拡散は、ねじれ角の空間で動作する新しい拡散フレームワークである。
薬物様分子の標準ベンチマークでは、ねじり拡散は優れたコンフォメーラーアンサンブルを生成する。
我々のモデルは、最初の一般化可能なボルツマン生成器を構築するために使われる正確な確率を与える。
論文 参考訳(メタデータ) (2022-06-01T04:30:41Z) - BIGDML: Towards Exact Machine Learning Force Fields for Materials [55.944221055171276]
機械学習力場(MLFF)は正確で、計算的で、データ効率が良く、分子、材料、およびそれらのインターフェースに適用できなければならない。
ここでは、Bravais-Inspired Gradient-Domain Machine Learningアプローチを導入し、わずか10-200原子のトレーニングセットを用いて、信頼性の高い力場を構築する能力を実証する。
論文 参考訳(メタデータ) (2021-06-08T10:14:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。