論文の概要: AQCat25: Unlocking spin-aware, high-fidelity machine learning potentials for heterogeneous catalysis
- arxiv url: http://arxiv.org/abs/2510.22938v1
- Date: Mon, 27 Oct 2025 02:47:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.997533
- Title: AQCat25: Unlocking spin-aware, high-fidelity machine learning potentials for heterogeneous catalysis
- Title(参考訳): AQCat25:不均一触媒のためのスピン認識、高忠実度機械学習ポテンシャルの解錠
- Authors: Omar Allam, Brook Wander, Aayush R. Singh,
- Abstract要約: AQCat25は13.5万密度汎関数理論(DFT)単点計算を補完するデータセットである。
我々は、AQCat25のような新しいデータセットとより広範なOpen Catalyst 2020 (OC20)データセットを統合する方法を検討する。
例えば、FiLM(Feature-wise Linear Modulation)を用いることで、この課題に対処できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large-scale datasets have enabled highly accurate machine learning interatomic potentials (MLIPs) for general-purpose heterogeneous catalysis modeling. There are, however, some limitations in what can be treated with these potentials because of gaps in the underlying training data. To extend these capabilities, we introduce AQCat25, a complementary dataset of 13.5 million density functional theory (DFT) single point calculations designed to improve the treatment of systems where spin polarization and/or higher fidelity are critical. We also investigate methodologies for integrating new datasets, such as AQCat25, with the broader Open Catalyst 2020 (OC20) dataset to create spin-aware models without sacrificing generalizability. We find that directly tuning a general model on AQCat25 leads to catastrophic forgetting of the original dataset's knowledge. Conversely, joint training strategies prove effective for improving accuracy on the new data without sacrificing general performance. This joint approach introduces a challenge, as the model must learn from a dataset containing both mixed-fidelity calculations and mixed-physics (spin-polarized vs. unpolarized). We show that explicitly conditioning the model on this system-specific metadata, for example by using Feature-wise Linear Modulation (FiLM), successfully addresses this challenge and further enhances model accuracy. Ultimately, our work establishes an effective protocol for bridging DFT fidelity domains to advance the predictive power of foundational models in catalysis.
- Abstract(参考訳): 大規模データセットにより、汎用的ヘテロジニアス触媒モデルのための高精度な機械学習原子間ポテンシャル(MLIP)が実現された。
しかし、基礎となるトレーニングデータにギャップがあるため、これらのポテンシャルで扱えるものにはいくつかの制限がある。
AQCat25は、13.5万密度汎関数理論(DFT)の補足的データセットであり、スピン偏極や高忠実度が重要となるシステムの処理を改善するために設計された。
また、AQCat25のような新しいデータセットと広い範囲のOpen Catalyst 2020 (OC20)データセットを統合する方法を検討し、一般化性を犠牲にすることなくスピン認識モデルを作成する。
AQCat25の一般モデルを直接チューニングすると、元のデータセットの知識が壊滅的に忘れてしまうことがわかりました。
逆に、共同トレーニング戦略は、一般的な性能を犠牲にすることなく、新しいデータの精度を向上させるのに有効である。
このジョイントアプローチは、混合忠実度計算と混合物理(スピン分極と非分極)の両方を含むデータセットからモデルを学習する必要があるため、課題を提起する。
例えば、FiLM(Feature-wise Linear Modulation)を用いて、この課題に対処し、モデル精度をさらに向上させる。
究極的には、触媒反応における基礎モデルの予測力を向上するために、DFT忠実度ドメインをブリッジするための効果的なプロトコルを確立する。
関連論文リスト
- Deepfake Detection that Generalizes Across Benchmarks [48.85953407706351]
ディープフェイク検出器の非表示操作技術への一般化は、実用的展開の課題である。
この研究は、基礎となる事前学習された視覚エンコーダのパラメータ効率適応により、ロバストな一般化が達成可能であることを示す。
提案手法は、平均的クロスデータセットAUROCにおける、より複雑な、最新のアプローチよりも優れた、最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-08-08T12:03:56Z) - Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - Data Scaling Laws for End-to-End Autonomous Driving [83.85463296830743]
16時間から8192時間に及ぶ内部駆動データセット上での簡易エンド・ツー・エンド駆動アーキテクチャの性能評価を行った。
具体的には、目標の性能向上を達成するために、どの程度のトレーニングデータが必要かを調査する。
論文 参考訳(メタデータ) (2025-04-06T03:23:48Z) - MaD-Scientist: AI-based Scientist solving Convection-Diffusion-Reaction Equations Using Massive PINN-Based Prior Data [22.262191225577244]
科学的基礎モデル(SFM)にも同様のアプローチが適用できるかどうかを考察する。
数学辞書の任意の線形結合によって構築された偏微分方程式(PDE)の解の形で、低コストな物理情報ニューラルネットワーク(PINN)に基づく近似された事前データを収集する。
本研究では,1次元対流拡散反応方程式に関する実験的な証拠を提供する。
論文 参考訳(メタデータ) (2024-10-09T00:52:00Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Multi-fidelity Fourier Neural Operator for Fast Modeling of Large-Scale
Geological Carbon Storage [0.0]
本稿では,大規模炭素貯蔵問題の解決にFNO(Multi-fidelity Fourier Neural operator)を提案する。
我々はまず,GCS貯水池モデル上で110kの格子セルに離散化されたモデルの有効性を検証した。
マルチ忠実度モデルは、同じ量の高忠実度データを81%のコストでトレーニングした高忠実度モデルに匹敵する精度で予測できる。
論文 参考訳(メタデータ) (2023-08-17T17:44:59Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Merging Two Cultures: Deep and Statistical Learning [3.15863303008255]
深層学習と統計的学習の2つの文化を組み合わせることで、構造化された高次元データに対する洞察が得られる。
モデルの出力層における確率的手法を用いて予測,最適化,不確実性を実現できることを示す。
論文 参考訳(メタデータ) (2021-10-22T02:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。