論文の概要: Periodic Materials Generation using Text-Guided Joint Diffusion Model
- arxiv url: http://arxiv.org/abs/2503.00522v1
- Date: Sat, 01 Mar 2025 14:56:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 18:50:37.458187
- Title: Periodic Materials Generation using Text-Guided Joint Diffusion Model
- Title(参考訳): テキストガイド型関節拡散モデルを用いた周期材料生成
- Authors: Kishalay Das, Subhojyoti Khastagir, Pawan Goyal, Seung-Cheol Lee, Satadeep Bhattacharjee, Niloy Ganguly,
- Abstract要約: TGDMatは3次元周期材料生成のために設計された新しいテキスト誘導拡散モデルである。
提案手法は,各段階での文章記述を通じて,グローバルな構造的知識を統合する。
実験の結果,TGDMatは既存のベースライン法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 23.137596469096824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equivariant diffusion models have emerged as the prevailing approach for generating novel crystal materials due to their ability to leverage the physical symmetries of periodic material structures. However, current models do not effectively learn the joint distribution of atom types, fractional coordinates, and lattice structure of the crystal material in a cohesive end-to-end diffusion framework. Also, none of these models work under realistic setups, where users specify the desired characteristics that the generated structures must match. In this work, we introduce TGDMat, a novel text-guided diffusion model designed for 3D periodic material generation. Our approach integrates global structural knowledge through textual descriptions at each denoising step while jointly generating atom coordinates, types, and lattice structure using a periodic-E(3)-equivariant graph neural network (GNN). Extensive experiments using popular datasets on benchmark tasks reveal that TGDMat outperforms existing baseline methods by a good margin. Notably, for the structure prediction task, with just one generated sample, TGDMat outperforms all baseline models, highlighting the importance of text-guided diffusion. Further, in the generation task, TGDMat surpasses all baselines and their text-fusion variants, showcasing the effectiveness of the joint diffusion paradigm. Additionally, incorporating textual knowledge reduces overall training and sampling computational overhead while enhancing generative performance when utilizing real-world textual prompts from experts.
- Abstract(参考訳): 等変拡散モデルは、周期構造体の物理対称性を活用する能力により、新しい結晶材料を生成するための一般的なアプローチとして現れている。
しかし、現在のモデルは、結合的なエンドツーエンド拡散フレームワークにおいて、結晶材料の原子タイプ、分数座標、格子構造の結合分布を効果的に学ばない。
また、これらのモデルはいずれも現実的な設定では動作せず、ユーザーは生成した構造が一致しなければならない望ましい特性を指定する。
本稿では,3次元周期材料生成のためのテキスト誘導拡散モデルであるTGDMatを紹介する。
提案手法は,周期的E(3)同変グラフニューラルネットワーク(GNN)を用いて,原子座標,型,格子構造を共同生成しながら,各段階でのテキスト記述を通じてグローバルな構造知識を統合する。
ベンチマークタスクで一般的なデータセットを使用した大規模な実験により、TGDMatは既存のベースラインメソッドよりも良いマージンで優れていることが判明した。
特に、構造予測タスクでは、TGDMatは1つのサンプルしか生成せず、すべてのベースラインモデルより優れており、テキスト誘導拡散の重要性を強調している。
さらに、生成タスクにおいて、TGDMatは、すべてのベースラインとそのテキスト融合のバリエーションを超越し、共同拡散パラダイムの有効性を示す。
さらに、テキスト知識を取り入れることで、専門家の現実的なテキストプロンプトを利用する際の生成性能を高めながら、全体的なトレーニングと計算オーバーヘッドのサンプリングが削減される。
関連論文リスト
- Statistical learning of structure-property relationships for transport in porous media, using hybrid AI modeling [0.0]
多孔質媒体の3次元微細構造は、有効拡散率や透過性を含む結果のマクロな性質に大きな影響を及ぼす。
多孔質媒体の性能を最適化するためには, 定量的構造・物性関係が重要である。
本論文は文献から得られた多孔質媒体の90,000個の仮想的な3次元微細構造を用いる。
このデータセットにハイブリッドAIフレームワークを適用することで,これらの知見を拡張した。
論文 参考訳(メタデータ) (2025-03-27T14:46:40Z) - Unifying Text Semantics and Graph Structures for Temporal Text-attributed Graphs with Large Language Models [19.710059031046377]
時間グラフニューラルネットワーク(TGNN)は時間グラフモデリングにおいて顕著な性能を示した。
TTAGモデリングのための既存のTGNNをシームレスに拡張する新しいフレームワークである textbfCross を提案する。
論文 参考訳(メタデータ) (2025-03-18T16:50:10Z) - Causal Discovery from Data Assisted by Large Language Models [50.193740129296245]
知識駆動発見のために、実験データと事前のドメイン知識を統合することが不可欠である。
本稿では、高分解能走査透過電子顕微鏡(STEM)データと大規模言語モデル(LLM)からの洞察を組み合わせることで、このアプローチを実証する。
SmドープBiFeO3(SmBFO)におけるChatGPTをドメイン固有文献に微調整することにより、構造的、化学的、分極的自由度の間の因果関係をマッピングするDAG(Directed Acyclic Graphs)の隣接行列を構築する。
論文 参考訳(メタデータ) (2025-03-18T02:14:49Z) - Open Materials Generation with Stochastic Interpolants [14.939468363546384]
結晶材料の生成と発見のための統一フレームワークであるオープンマテリアルジェネレーション(OMG)を紹介する。
OMGは、任意の塩基分布を結晶のターゲット分布にブリッジするために無機補間剤(SI)を用いる。
我々は,OMGの特定の構成に対する結晶構造予測(CSP)と,安定で新規でユニークな構造を発見することを目的とした'de novo'生成(DNG)の2つのタスクについて,OMGのパフォーマンスをベンチマークした。
論文 参考訳(メタデータ) (2025-02-04T18:56:47Z) - DeFoG: Discrete Flow Matching for Graph Generation [45.037260759871124]
グラフ生成のための離散フローマッチングを用いた新しいフレームワークであるDeFoGを提案する。
DeFoGはフローベースのアプローチを採用しており、効率的な線形雑音化プロセスと柔軟な雑音化プロセスを備えている。
我々は,DeFoGが合成および分子データセット上で最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2024-10-05T18:52:54Z) - ComboStoc: Combinatorial Stochasticity for Diffusion Generative Models [65.82630283336051]
拡散生成モデルの既存のトレーニングスキームにより,次元と属性の組み合わせによって区切られた空間が十分に標本化されていないことを示す。
構造を完全に活用するプロセスを構築し,ComboStocという名前でこの問題に対処する。
論文 参考訳(メタデータ) (2024-05-22T15:23:10Z) - Compositional Abilities Emerge Multiplicatively: Exploring Diffusion
Models on a Synthetic Task [20.749514363389878]
合成環境における条件拡散モデルにおける合成一般化について検討する。
サンプルを生成する能力が出現する順番は、基礎となるデータ生成プロセスの構造によって制御される。
本研究は、データ中心の観点から、生成モデルにおける能力と構成性を理解するための基礎を築いた。
論文 参考訳(メタデータ) (2023-10-13T18:00:59Z) - Geometric Deep Learning for Structure-Based Drug Design: A Survey [83.87489798671155]
構造に基づく薬物設計(SBDD)は、タンパク質の3次元幾何学を利用して、潜在的な薬物候補を特定する。
近年の幾何学的深層学習の進歩は、3次元幾何学的データを効果的に統合・処理し、この分野を前進させてきた。
論文 参考訳(メタデータ) (2023-06-20T14:21:58Z) - Reduce, Reuse, Recycle: Compositional Generation with Energy-Based Diffusion Models and MCMC [102.64648158034568]
拡散モデルは、多くの領域において、生成モデリングの一般的なアプローチとなっている。
本稿では,新しい構成演算子の利用を可能にする拡散モデルのエネルギーベースパラメータ化を提案する。
これらのサンプルは、幅広い問題にまたがって構成生成の顕著な改善につながっている。
論文 参考訳(メタデータ) (2023-02-22T18:48:46Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Structure-based Drug Design with Equivariant Diffusion Models [40.73626627266543]
本稿では,タンパク質ポケットに新しい条件を付加したSE(3)-同変拡散モデルDiffSBDDを提案する。
我々のサイリコ実験では、DiffSBDDが地上の真実データの統計を効果的に捉えていることが示されています。
これらの結果は、拡散モデルが従来の方法よりも正確に構造データの複雑な分布を表すという仮定を支持する。
論文 参考訳(メタデータ) (2022-10-24T15:51:21Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - Improving Compositional Generalization with Self-Training for
Data-to-Text Generation [36.973617793800315]
データ・テキスト・タスクにおける現在の生成モデルの合成一般化について検討する。
構成的気象データセットの構造変化をシミュレートすることにより、T5モデルは目に見えない構造に一般化できないことを示す。
擬似応答選択のための細調整BLEURTを用いた自己学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-10-16T04:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。