論文の概要: EGMOF: Efficient Generation of Metal-Organic Frameworks Using a Hybrid Diffusion-Transformer Architecture
- arxiv url: http://arxiv.org/abs/2511.03122v1
- Date: Wed, 05 Nov 2025 02:14:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.297362
- Title: EGMOF: Efficient Generation of Metal-Organic Frameworks Using a Hybrid Diffusion-Transformer Architecture
- Title(参考訳): EGMOF:ハイブリッド拡散変圧器アーキテクチャを用いた金属有機フレームワークの効率的な生成
- Authors: Seunghee Han, Yeonghun Kang, Taeun Bae, Varinia Bernales, Alan Aspuru-Guzik, Jihan Kim,
- Abstract要約: EGMOF(Efficient Generation of MOFs)は、モジュール型のディスクリプタによるワークフローを通じて制限を克服するハイブリッド拡散変換フレームワークである。
水素吸入データセットでは, EGMOFが95%以上, 84%のヒット率を達成し, 従来法に比べて最大57%, 14%のヒット率で有意な改善が認められた。
- 参考スコア(独自算出の注目度): 2.5970961110910884
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Designing materials with targeted properties remains challenging due to the vastness of chemical space and the scarcity of property-labeled data. While recent advances in generative models offer a promising way for inverse design, most approaches require large datasets and must be retrained for every new target property. Here, we introduce the EGMOF (Efficient Generation of MOFs), a hybrid diffusion-transformer framework that overcomes these limitations through a modular, descriptor-mediated workflow. EGMOF decomposes inverse design into two steps: (1) a one-dimensional diffusion model (Prop2Desc) that maps desired properties to chemically meaningful descriptors followed by (2) a transformer model (Desc2MOF) that generates structures from these descriptors. This modular hybrid design enables minimal retraining and maintains high accuracy even under small-data conditions. On a hydrogen uptake dataset, EGMOF achieved over 95% validity and 84% hit rate, representing significant improvements of up to 57% in validity and 14% in hit rate compared to existing methods, while remaining effective with only 1,000 training samples. Moreover, our model successfully performed conditional generation across 29 diverse property datasets, including CoREMOF, QMOF, and text-mined experimental datasets, whereas previous models have not. This work presents a data-efficient, generalizable approach to the inverse design of diverse MOFs and highlights the potential of modular inverse design workflows for broader materials discovery.
- Abstract(参考訳): 目的とする特性を持つ材料の設計は、化学空間の広大さと、特性ラベル付きデータの不足により、依然として困難なままである。
生成モデルの最近の進歩は、逆設計に有望な方法を提供しているが、ほとんどのアプローチは大きなデータセットを必要とし、新しいターゲットプロパティをすべて再訓練する必要がある。
本稿では,モジュール型ディスクリプタによるワークフローを通じて,これらの制限を克服するハイブリッド拡散変換フレームワークであるEGMOF(Efficient Generation of MOFs)を紹介する。
1) 1次元拡散モデル(Prop2Desc)は化学的に意味のある記述子に所望の特性をマッピングし、(2)変換子モデル(Desc2MOF)はこれらの記述子から構造を生成する。
このモジュラーハイブリッド設計は、最小限の再トレーニングを可能にし、小さなデータ条件下でも高い精度を維持する。
水素吸入データセットでは, EGMOFが95%以上, 84%のヒット率を達成し, 従来法に比べて最大57%, 14%のヒット率で有意な改善がみられた。
さらに,本モデルでは,CoREMOF,QMOF,テキストマイニング実験データセットを含む29のプロパティデータセットに対して条件付き生成を成功させた。
この研究は、多種多様なMOFの逆設計に対するデータ効率、一般化可能なアプローチを示し、より広範な材料発見のためのモジュラー逆設計ワークフローの可能性を強調している。
関連論文リスト
- FoilDiff: A Hybrid Transformer Backbone for Diffusion-based Modelling of 2D Airfoil Flow Fields [1.5749416770494706]
FoilDiffは、ハイブリッドバックボーンデノナイジングネットワークを備えた拡散ベースのサロゲートモデルである。
既存の拡散モデルよりも正確な予測とより良い校正された予測の不確実性を提供することができる。
論文 参考訳(メタデータ) (2025-10-05T19:10:38Z) - Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - MOFGPT: Generative Design of Metal-Organic Frameworks using Language Models [5.417632175667162]
応用固有の性質を持つ金属有機フレームワーク(MOF)は、材料化学における中心的な課題である。
我々はMOFのデノボ設計のための強化学習型トランスフォーマーベースのフレームワークを提案する。
特性フィードバックをシーケンス生成に統合することにより、このモデルを合成可能でトポロジカルに有効なMOFに向けて駆動する。
論文 参考訳(メタデータ) (2025-05-30T20:09:11Z) - Reinforced Model Merging [53.84354455400038]
本稿では,タスク統合に適した環境とエージェントを含むRMM(Reinforced Model Merging)という,革新的なフレームワークを提案する。
評価プロセス中にデータサブセットを利用することで、報酬フィードバックフェーズのボトルネックに対処し、RMMを最大100倍高速化する。
論文 参考訳(メタデータ) (2025-03-27T08:52:41Z) - Inverse Materials Design by Large Language Model-Assisted Generative Framework [35.04390544440238]
AlloyGANは、Large Language Model (LLM) を利用したテキストマイニングと条件付き生成支援ネットワーク (CGAN) を統合したフレームワークである。
金属ガラスの場合、このフレームワークは実験から8%未満の差で熱力学特性を予測する。
生成AIをドメイン知識でブリッジすることで、A AlloyGANは、カスタマイズされた特性を持つ物質の発見を加速するスケーラブルなアプローチを提供する。
論文 参考訳(メタデータ) (2025-02-25T11:52:59Z) - Flow Generator Matching [35.371071097381346]
フロージェネレータマッチング(FGM)は、フローマッチングモデルのサンプリングをワンステップ生成に高速化するように設計されている。
CIFAR10の非条件生成ベンチマークでは、1段階のFGMモデルが新たなFr'echet Inception Distance(FID)スコア3.08を達成した。
MM-DiT-FGMワンステップテキスト・ツー・イメージモデルでは,業界レベルでの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-10-25T05:41:28Z) - One-Step Diffusion Distillation through Score Implicit Matching [74.91234358410281]
本稿では,Score Implicit Matching (SIM) を用いて,事前学習した拡散モデルを単一ステップジェネレータモデルに蒸留する手法を提案する。
SIMはワンステップジェネレータに対して強い経験的性能を示す。
リードトランスに基づく拡散モデルにSIMを適用することにより,テキスト・ツー・イメージ生成のための単一ステップ生成器を蒸留する。
論文 参考訳(メタデータ) (2024-10-22T08:17:20Z) - D$^4$M: Dataset Distillation via Disentangled Diffusion Model [4.568710926635445]
遠方拡散モデル(D$4$M)によるデータセット蒸留のための効率的なフレームワークを提案する。
アーキテクチャに依存した手法と比較して、D$4$Mは一貫性を保証するために遅延拡散モデルを採用し、ラベル情報をカテゴリのプロトタイプに組み込む。
D$4$Mは優れた性能とロバストな一般化を示し、多くの面においてSOTAメソッドを上回っている。
論文 参考訳(メタデータ) (2024-07-21T12:16:20Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Molecule Design by Latent Prompt Transformer [76.2112075557233]
本研究は、分子設計の課題を条件付き生成モデリングタスクとしてフレーミングすることによって検討する。
本研究では,(1)学習可能な事前分布を持つ潜伏ベクトル,(2)プロンプトとして潜伏ベクトルを用いる因果トランスフォーマーに基づく分子生成モデル,(3)潜在プロンプトを用いた分子の目標特性および/または制約値を予測する特性予測モデルからなる新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:33:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。