論文の概要: UMA: A Family of Universal Models for Atoms
- arxiv url: http://arxiv.org/abs/2506.23971v1
- Date: Mon, 30 Jun 2025 15:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.13084
- Title: UMA: A Family of Universal Models for Atoms
- Title(参考訳): UMA:Atomのためのユニバーサルモデルのファミリー
- Authors: Brandon M. Wood, Misko Dzamba, Xiang Fu, Meng Gao, Muhammed Shuaibi, Luis Barroso-Luque, Kareem Abdelmaqsoud, Vahe Gharakhanyan, John R. Kitchin, Daniel S. Levine, Kyle Michel, Anuroop Sriram, Taco Cohen, Abhishek Das, Ammar Rizvi, Sushree Jagriti Sahoo, Zachary W. Ulissi, C. Lawrence Zitnick,
- Abstract要約: 我々は、スピード、精度、一般化のフロンティアを推し進めるために設計されたUniversal Models for Atoms (UMA) のファミリーを提示する。
UMAモデルは、複数の化学ドメインにまたがるデータをコンパイルすることで、5億のユニークな3D原子構造で訓練されている。
複数のドメインにまたがる多様なアプリケーション上でのUMAモデルの評価を行い、驚くほど、微調整のない単一モデルでも、専門モデルと同じような、あるいはより優れた性能を発揮できることを示した。
- 参考スコア(独自算出の注目度): 16.3404265902621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to quickly and accurately compute properties from atomic simulations is critical for advancing a large number of applications in chemistry and materials science including drug discovery, energy storage, and semiconductor manufacturing. To address this need, Meta FAIR presents a family of Universal Models for Atoms (UMA), designed to push the frontier of speed, accuracy, and generalization. UMA models are trained on half a billion unique 3D atomic structures (the largest training runs to date) by compiling data across multiple chemical domains, e.g. molecules, materials, and catalysts. We develop empirical scaling laws to help understand how to increase model capacity alongside dataset size to achieve the best accuracy. The UMA small and medium models utilize a novel architectural design we refer to as mixture of linear experts that enables increasing model capacity without sacrificing speed. For example, UMA-medium has 1.4B parameters but only ~50M active parameters per atomic structure. We evaluate UMA models on a diverse set of applications across multiple domains and find that, remarkably, a single model without any fine-tuning can perform similarly or better than specialized models. We are releasing the UMA code, weights, and associated data to accelerate computational workflows and enable the community to continue to build increasingly capable AI models.
- Abstract(参考訳): 原子シミュレーションから特性を迅速かつ正確に計算する能力は、医薬品発見、エネルギー貯蔵、半導体製造など、化学や材料科学における多くの応用を進める上で重要である。
このニーズに対処するため、Meta FAIRは、スピード、精度、一般化のフロンティアを推し進めるために設計された、Universal Models for Atoms (UMA)のファミリを提示する。
UMAモデルは、複数の化学ドメイン、例えば分子、材料、触媒にまたがるデータをコンパイルすることで、50億のユニークな3D原子構造(これまでで最大の訓練)で訓練される。
実験的なスケーリング法則を開発し、データセットサイズとともにモデルのキャパシティを向上し、最適な精度を実現する方法について理解する。
UMAの小型・中型モデルは、速度を犠牲にすることなくモデルキャパシティを向上できる線形専門家の混合物として、新しいアーキテクチャ設計を利用する。
例えば、UMA-mediumは1.4Bのパラメータを持つが、原子構造ごとに約50Mの活性パラメータしか持たない。
複数のドメインにまたがる多様なアプリケーション上でのUMAモデルの評価を行い、驚くほど、微調整のない単一モデルでも、専門モデルと同じような、あるいはより優れた性能を発揮できることを示した。
私たちは、計算ワークフローを加速し、コミュニティがますます有能なAIモデルを構築し続けることを可能にするために、UMAコード、重み、関連するデータをリリースしています。
関連論文リスト
- MatterTune: An Integrated, User-Friendly Platform for Fine-Tuning Atomistic Foundation Models to Accelerate Materials Simulation and Discovery [7.1240120153291535]
MatterTuneは、高度な微調整機能を提供し、原子論の基礎モデルを下流の材料情報とシミュレーションにシームレスに統合するフレームワークである。
MatterTuneはORB、MatterSim、JMP、EquformerV2といった最先端の基礎モデルをサポートしている。
論文 参考訳(メタデータ) (2025-04-14T19:12:43Z) - xLAM: A Family of Large Action Models to Empower AI Agent Systems [111.5719694445345]
AIエージェントタスク用に設計された大規模なアクションモデルであるxLAMをリリースする。
xLAMは、複数のエージェント能力ベンチマークで例外的なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-05T03:22:22Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Quantum-informed simulations for mechanics of materials: DFTB+MBD framework [40.83978401377059]
本研究では, 材料工学に関連するシステムの力学特性を量子効果によってどのように変化させるかを検討する。
この作業で提示されたすべてのコード、データセット、サンプルを含むオープンソースリポジトリを提供する。
論文 参考訳(メタデータ) (2024-04-05T16:59:01Z) - Specializing Smaller Language Models towards Multi-Step Reasoning [56.78474185485288]
GPT-3.5 (ge$ 175B) から T5 変種 (le$ 11B) までを蒸留できることを示す。
対象タスクに対するモデルの能力を専門化するモデル特殊化を提案する。
論文 参考訳(メタデータ) (2023-01-30T08:51:19Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - DPA-1: Pretraining of Attention-based Deep Potential Model for Molecular
Simulation [13.631315487331195]
本稿では,新しいアテンション機構を持つディープポテンシャルモデルDPA-1を提案する。
56要素を含む大規模データセットに事前トレーニングされた場合、DPA-1は様々な下流タスクにうまく適用できる。
異なる要素に対して、学習された型埋め込みパラメータは潜在空間において$spiral$を形成し、周期表上のそれらの位置と自然な対応を持つ。
論文 参考訳(メタデータ) (2022-08-17T11:33:46Z) - BIGDML: Towards Exact Machine Learning Force Fields for Materials [55.944221055171276]
機械学習力場(MLFF)は正確で、計算的で、データ効率が良く、分子、材料、およびそれらのインターフェースに適用できなければならない。
ここでは、Bravais-Inspired Gradient-Domain Machine Learningアプローチを導入し、わずか10-200原子のトレーニングセットを用いて、信頼性の高い力場を構築する能力を実証する。
論文 参考訳(メタデータ) (2021-06-08T10:14:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。