論文の概要: AtomBench: A Benchmark for Generative Atomic Structure Models using GPT, Diffusion, and Flow Architectures
- arxiv url: http://arxiv.org/abs/2510.16165v1
- Date: Fri, 17 Oct 2025 19:07:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.879688
- Title: AtomBench: A Benchmark for Generative Atomic Structure Models using GPT, Diffusion, and Flow Architectures
- Title(参考訳): AtomBench: GPT、拡散、フローアーキテクチャを用いた生成原子構造モデルのベンチマーク
- Authors: Charles Rhys Campbell, Aldo H. Romero, Kamal Choudhary,
- Abstract要約: 本稿では,AtomGPT,拡散結晶変分オートエンコーダ,フローMMの3つの代表的な生成モデルのベンチマークを示す。
これらのモデルは、JARVIS Supercon 3DとDS A/Bの2つの公開超伝導データセットのサブセットから結晶構造を再構築するために訓練された。
計算されたKLDとMAEのスコアでは、CDVAEが最も好意的に機能し、次にAtomGPT、次にFlowMMが続く。
- 参考スコア(独自算出の注目度): 0.11293608297930847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models have become significant assets in the exploration and identification of new materials, enabling the rapid proposal of candidate crystal structures that satisfy target properties. Despite the increasing adoption of diverse architectures, a rigorous comparative evaluation of their performance on materials datasets is lacking. In this work, we present a systematic benchmark of three representative generative models- AtomGPT (a transformer-based model), Crystal Diffusion Variational Autoencoder (CDVAE), and FlowMM (a Riemannian flow matching model). These models were trained to reconstruct crystal structures from subsets of two publicly available superconductivity datasets- JARVIS Supercon 3D and DS A/B from the Alexandria database. Performance was assessed using the Kullback-Leibler (KL) divergence between predicted and reference distributions of lattice parameters, as well as the mean absolute error (MAE) of individual lattice constants. For the computed KLD and MAE scores, CDVAE performs most favorably, followed by AtomGPT, and then FlowMM. All benchmarking code and model configurations will be made publicly available at https://github.com/atomgptlab/atombench_inverse.
- Abstract(参考訳): 生成モデルは新しい物質の探索と同定において重要な資産となり、ターゲット特性を満たす候補結晶構造の素早い提案を可能にした。
多様なアーキテクチャの採用が増加しているにもかかわらず、材料データセットのパフォーマンスの厳密な比較評価は不足している。
本稿では,AtomGPT(トランスフォーマーベースモデル),Crystal Diffusion Variational Autoencoder(CDVAE),FlowMM(リーマンフローマッチングモデル)の3つの代表的な生成モデルの系統的ベンチマークを示す。
これらのモデルは、アレクサンドリアデータベースのJARVIS Supercon 3DとDS A/Bの2つの公開超伝導データセットのサブセットから結晶構造を再構築するために訓練された。
Kullback-Leibler (KL) の格子パラメータの予測分布と参照分布, および個々の格子定数の平均絶対誤差を用いて, 評価を行った。
計算されたKLDとMAEのスコアでは、CDVAEが最も好意的に機能し、次にAtomGPT、次にFlowMMが続く。
すべてのベンチマークコードとモデル構成はhttps://github.com/atomgptlab/atombench_inverseで公開されます。
関連論文リスト
- Sampling 3D Molecular Conformers with Diffusion Transformers [13.536503487456622]
拡散変換器 (DiT) は生成モデルにおいて高い性能を示した。
分子へのDiTの適用は、離散的な分子グラフ情報と連続した3次元幾何学の統合など、新しい課題をもたらす。
モジュールアーキテクチャを通じてこれらの課題に対処するために,DiTを適応させるフレームワークであるDiTMCを提案する。
論文 参考訳(メタデータ) (2025-06-18T11:47:59Z) - Periodic Materials Generation using Text-Guided Joint Diffusion Model [23.137596469096824]
TGDMatは3次元周期材料生成のために設計された新しいテキスト誘導拡散モデルである。
提案手法は,各段階での文章記述を通じて,グローバルな構造的知識を統合する。
実験の結果,TGDMatは既存のベースライン法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-03-01T14:56:44Z) - Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
Kolmogorov-Arnold Networks (KAN) は科学分野で大きな成功を収めている。
本研究では,Equivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Improving generalisability of 3D binding affinity models in low data regimes [0.0]
PDBBindデータセットの新たな分割を導入し、列車とテストセット間の類似性リークを最小限にする。
一般に、3次元グローバルモデルが低データ構造におけるタンパク質特異的局所モデルよりも優れていることを実証する。
この研究は、結合親和性モデリングのためのGNNアーキテクチャの可能性を解き放つための、有望な新しいアプローチをもたらすと信じている。
論文 参考訳(メタデータ) (2024-09-19T13:54:38Z) - WindsorML: High-Fidelity Computational Fluid Dynamics Dataset For Automotive Aerodynamics [1.7258674811482855]
本稿では,Windsorボディの355の幾何学的変種を含む機械学習(ML)のための,オープンソースの新しい高忠実度データセットを提案する。
著者らにとってこれは、許容オープンソースライセンス(CC-BY-SA)を持つWindsorボディのための、最初の大規模高忠実CFDデータセットである。
論文 参考訳(メタデータ) (2024-07-27T18:33:10Z) - Scalable Diffusion for Materials Generation [99.71001883652211]
我々は任意の結晶構造(ユニマット)を表現できる統一された結晶表現を開発する。
UniMatはより大型で複雑な化学系から高忠実度結晶構造を生成することができる。
材料の生成モデルを評価するための追加指標を提案する。
論文 参考訳(メタデータ) (2023-10-18T15:49:39Z) - Squeezeformer: An Efficient Transformer for Automatic Speech Recognition [99.349598600887]
Conformerは、そのハイブリッドアテンション・コンボリューションアーキテクチャに基づいて、様々な下流音声タスクの事実上のバックボーンモデルである。
Squeezeformerモデルを提案する。これは、同じトレーニングスキームの下で、最先端のASRモデルよりも一貫して優れている。
論文 参考訳(メタデータ) (2022-06-02T06:06:29Z) - Middle-level Fusion for Lightweight RGB-D Salient Object Detection [81.43951906434175]
本稿では,新しい軽量RGB-D SODモデルについて述べる。
中層核融合構造に IMFF および L モジュールが組み込まれているため,提案モデルは3.9M のパラメータしか持たず,33 FPS で動作する。
いくつかのベンチマークデータセットによる実験結果から,提案手法の有効性と優位性を検証した。
論文 参考訳(メタデータ) (2021-04-23T11:37:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。