論文の概要: Periodic Materials Generation using Text-Guided Joint Diffusion Model
- arxiv url: http://arxiv.org/abs/2503.00522v1
- Date: Sat, 01 Mar 2025 14:56:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:14:27.110237
- Title: Periodic Materials Generation using Text-Guided Joint Diffusion Model
- Title(参考訳): テキストガイド型関節拡散モデルを用いた周期材料生成
- Authors: Kishalay Das, Subhojyoti Khastagir, Pawan Goyal, Seung-Cheol Lee, Satadeep Bhattacharjee, Niloy Ganguly,
- Abstract要約: TGDMatは3次元周期材料生成のために設計された新しいテキスト誘導拡散モデルである。
提案手法は,各段階での文章記述を通じて,グローバルな構造的知識を統合する。
実験の結果,TGDMatは既存のベースライン法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 23.137596469096824
- License:
- Abstract: Equivariant diffusion models have emerged as the prevailing approach for generating novel crystal materials due to their ability to leverage the physical symmetries of periodic material structures. However, current models do not effectively learn the joint distribution of atom types, fractional coordinates, and lattice structure of the crystal material in a cohesive end-to-end diffusion framework. Also, none of these models work under realistic setups, where users specify the desired characteristics that the generated structures must match. In this work, we introduce TGDMat, a novel text-guided diffusion model designed for 3D periodic material generation. Our approach integrates global structural knowledge through textual descriptions at each denoising step while jointly generating atom coordinates, types, and lattice structure using a periodic-E(3)-equivariant graph neural network (GNN). Extensive experiments using popular datasets on benchmark tasks reveal that TGDMat outperforms existing baseline methods by a good margin. Notably, for the structure prediction task, with just one generated sample, TGDMat outperforms all baseline models, highlighting the importance of text-guided diffusion. Further, in the generation task, TGDMat surpasses all baselines and their text-fusion variants, showcasing the effectiveness of the joint diffusion paradigm. Additionally, incorporating textual knowledge reduces overall training and sampling computational overhead while enhancing generative performance when utilizing real-world textual prompts from experts.
- Abstract(参考訳): 等変拡散モデルは、周期構造体の物理対称性を活用する能力により、新しい結晶材料を生成するための一般的なアプローチとして現れている。
しかし、現在のモデルは、結合的なエンドツーエンド拡散フレームワークにおいて、結晶材料の原子タイプ、分数座標、格子構造の結合分布を効果的に学ばない。
また、これらのモデルはいずれも現実的な設定では動作せず、ユーザーは生成した構造が一致しなければならない望ましい特性を指定する。
本稿では,3次元周期材料生成のためのテキスト誘導拡散モデルであるTGDMatを紹介する。
提案手法は,周期的E(3)同変グラフニューラルネットワーク(GNN)を用いて,原子座標,型,格子構造を共同生成しながら,各段階でのテキスト記述を通じてグローバルな構造知識を統合する。
ベンチマークタスクで一般的なデータセットを使用した大規模な実験により、TGDMatは既存のベースラインメソッドよりも良いマージンで優れていることが判明した。
特に、構造予測タスクでは、TGDMatは1つのサンプルしか生成せず、すべてのベースラインモデルより優れており、テキスト誘導拡散の重要性を強調している。
さらに、生成タスクにおいて、TGDMatは、すべてのベースラインとそのテキスト融合のバリエーションを超越し、共同拡散パラダイムの有効性を示す。
さらに、テキスト知識を取り入れることで、専門家の現実的なテキストプロンプトを利用する際の生成性能を高めながら、全体的なトレーニングと計算オーバーヘッドのサンプリングが削減される。
関連論文リスト
- How compositional generalization and creativity improve as diffusion models are trained [82.08869888944324]
生成モデルでは、多くの新しいデータを生成するために、構成規則を学習する必要があるサンプルはいくつありますか?
言語や画像などのデータ構造を表現するために,木のようなグラフィカルモデルを用いて,単純な文脈自由文法に基づいて学習した拡散モデルを考察する。
拡散モデルは,統計学的に類似したコンテキストを持つクラスタリング機能に必要なサンプル複雑度で構成規則を学習する。
論文 参考訳(メタデータ) (2025-02-17T18:06:33Z) - Open Materials Generation with Stochastic Interpolants [14.939468363546384]
結晶材料の生成と発見のための統一フレームワークであるオープンマテリアルジェネレーション(OMG)を紹介する。
OMGは、任意の塩基分布を結晶のターゲット分布にブリッジするために無機補間剤(SI)を用いる。
我々は,OMGの特定の構成に対する結晶構造予測(CSP)と,安定で新規でユニークな構造を発見することを目的とした'de novo'生成(DNG)の2つのタスクについて,OMGのパフォーマンスをベンチマークした。
論文 参考訳(メタデータ) (2025-02-04T18:56:47Z) - DeFoG: Discrete Flow Matching for Graph Generation [45.037260759871124]
グラフ生成のための離散フローマッチングを用いた新しいフレームワークであるDeFoGを提案する。
DeFoGはフローベースのアプローチを採用しており、効率的な線形雑音化プロセスと柔軟な雑音化プロセスを備えている。
我々は,DeFoGが合成および分子データセット上で最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2024-10-05T18:52:54Z) - ComboStoc: Combinatorial Stochasticity for Diffusion Generative Models [65.82630283336051]
拡散生成モデルの既存のトレーニングスキームにより,次元と属性の組み合わせによって区切られた空間が十分に標本化されていないことを示す。
構造を完全に活用するプロセスを構築し,ComboStocという名前でこの問題に対処する。
論文 参考訳(メタデータ) (2024-05-22T15:23:10Z) - Compositional Abilities Emerge Multiplicatively: Exploring Diffusion
Models on a Synthetic Task [20.749514363389878]
合成環境における条件拡散モデルにおける合成一般化について検討する。
サンプルを生成する能力が出現する順番は、基礎となるデータ生成プロセスの構造によって制御される。
本研究は、データ中心の観点から、生成モデルにおける能力と構成性を理解するための基礎を築いた。
論文 参考訳(メタデータ) (2023-10-13T18:00:59Z) - Navigating the Design Space of Equivariant Diffusion-Based Generative
Models for De Novo 3D Molecule Generation [1.3124513975412255]
深部生成拡散モデル(Deep Generative diffusion model)は、材料科学と薬物発見における3D de novo分子設計のための有望な道である。
E(3)-同変拡散モデルの設計空間を探索し、未探索領域に焦点をあてる。
本稿では,QM9データセットとGEOM-Drugsデータセットの確立したモデルよりも一貫して優れるEQGAT-diffモデルを提案する。
論文 参考訳(メタデータ) (2023-09-29T14:53:05Z) - Geometric Deep Learning for Structure-Based Drug Design: A Survey [83.87489798671155]
構造に基づく薬物設計(SBDD)は、タンパク質の3次元幾何学を利用して、潜在的な薬物候補を特定する。
近年の幾何学的深層学習の進歩は、3次元幾何学的データを効果的に統合・処理し、この分野を前進させてきた。
論文 参考訳(メタデータ) (2023-06-20T14:21:58Z) - Reduce, Reuse, Recycle: Compositional Generation with Energy-Based Diffusion Models and MCMC [102.64648158034568]
拡散モデルは、多くの領域において、生成モデリングの一般的なアプローチとなっている。
本稿では,新しい構成演算子の利用を可能にする拡散モデルのエネルギーベースパラメータ化を提案する。
これらのサンプルは、幅広い問題にまたがって構成生成の顕著な改善につながっている。
論文 参考訳(メタデータ) (2023-02-22T18:48:46Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Improving Compositional Generalization with Self-Training for
Data-to-Text Generation [36.973617793800315]
データ・テキスト・タスクにおける現在の生成モデルの合成一般化について検討する。
構成的気象データセットの構造変化をシミュレートすることにより、T5モデルは目に見えない構造に一般化できないことを示す。
擬似応答選択のための細調整BLEURTを用いた自己学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-10-16T04:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。