論文の概要: Open Materials 2024 (OMat24) Inorganic Materials Dataset and Models
- arxiv url: http://arxiv.org/abs/2410.12771v1
- Date: Wed, 16 Oct 2024 17:48:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:41:04.516076
- Title: Open Materials 2024 (OMat24) Inorganic Materials Dataset and Models
- Title(参考訳): オープンマテリアル2024(OMat24)無機材料データセットとモデル
- Authors: Luis Barroso-Luque, Muhammed Shuaibi, Xiang Fu, Brandon M. Wood, Misko Dzamba, Meng Gao, Ammar Rizvi, C. Lawrence Zitnick, Zachary W. Ulissi,
- Abstract要約: 本稿では,Open Materials 2024 (OMat24) の大規模オープンデータセットのMeta FAIRリリースについて述べる。
OMat24は、構造的および構成的多様性に焦点を当てた1億1000万以上の密度汎関数理論(DFT)計算を含んでいる。
私たちのEquiformerV2モデルは、Matbench Discoveryのリーダーボード上で最先端のパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 3.865029260331255
- License:
- Abstract: The ability to discover new materials with desirable properties is critical for numerous applications from helping mitigate climate change to advances in next generation computing hardware. AI has the potential to accelerate materials discovery and design by more effectively exploring the chemical space compared to other computational methods or by trial-and-error. While substantial progress has been made on AI for materials data, benchmarks, and models, a barrier that has emerged is the lack of publicly available training data and open pre-trained models. To address this, we present a Meta FAIR release of the Open Materials 2024 (OMat24) large-scale open dataset and an accompanying set of pre-trained models. OMat24 contains over 110 million density functional theory (DFT) calculations focused on structural and compositional diversity. Our EquiformerV2 models achieve state-of-the-art performance on the Matbench Discovery leaderboard and are capable of predicting ground-state stability and formation energies to an F1 score above 0.9 and an accuracy of 20 meV/atom, respectively. We explore the impact of model size, auxiliary denoising objectives, and fine-tuning on performance across a range of datasets including OMat24, MPtraj, and Alexandria. The open release of the OMat24 dataset and models enables the research community to build upon our efforts and drive further advancements in AI-assisted materials science.
- Abstract(参考訳): 望ましい性質を持つ新しい材料を発見する能力は、気候変動を軽減し、次世代のコンピューティングハードウェアの進歩を促進する多くのアプリケーションにとって重要である。
AIは、他の計算方法や試行錯誤よりも効果的に化学空間を探索することで、材料発見と設計を加速する可能性がある。
材料データ、ベンチマーク、モデルのためのAIに関して、かなりの進歩があったが、出現した障壁は、一般公開されたトレーニングデータと、事前トレーニングされたモデルの開放である。
そこで本研究では,Open Materials 2024 (OMat24) の大規模オープンデータセットのMeta FAIRリリースと,それに伴う事前学習モデルについて述べる。
OMat24は、構造的および構成的多様性に焦点を当てた1億1000万以上の密度汎関数理論(DFT)計算を含んでいる。
我々のEquiformerV2モデルは、マトベンチディスカバリーのリーダーボード上での最先端性能を実現し、F1点以上の基底状態安定性と形成エネルギーをそれぞれ0.9mV/原子の精度で予測できる。
我々は,OMat24,MPtraj,Alexandriaなど,さまざまなデータセットのパフォーマンスに及ぼすモデルサイズ,補助的な認知目標,微調整の影響について検討する。
OMat24データセットとモデルが公開され、研究コミュニティは私たちの努力の上に構築し、AI支援材料科学のさらなる進歩を促進することができます。
関連論文リスト
- Fine-Tuned Language Models Generate Stable Inorganic Materials as Text [57.01994216693825]
テキストエンコードされた原子構造データに基づく微調整された大規模言語モデルは、実装が簡単で信頼性が高い。
我々の最強モデルは、CDVAEの約2倍の速度で準安定であると予測された物質を生成することができる。
テキストプロンプト固有の柔軟性のため、我々のモデルは安定物質を無条件に生成するために同時に使用することができる。
論文 参考訳(メタデータ) (2024-02-06T20:35:28Z) - Forging Vision Foundation Models for Autonomous Driving: Challenges,
Methodologies, and Opportunities [59.02391344178202]
ビジョンファウンデーションモデル(VFM)は、幅広いAIアプリケーションのための強力なビルディングブロックとして機能する。
総合的なトレーニングデータの不足、マルチセンサー統合の必要性、多様なタスク固有のアーキテクチャは、VFMの開発に重大な障害をもたらす。
本稿では、自動運転に特化したVFMを鍛造する上で重要な課題について述べるとともに、今後の方向性を概説する。
論文 参考訳(メタデータ) (2024-01-16T01:57:24Z) - Multimodal Learning for Materials [7.167520424757711]
材料の基礎モデルの自己教師型マルチモーダルトレーニングを可能にするマルチモーダル・ラーニング・フォー・マテリアル(MultiMat)を紹介した。
複数の軸上のMaterial Projectデータベースからのデータを用いてフレームワークの可能性を示す。
論文 参考訳(メタデータ) (2023-11-30T18:35:29Z) - Scalable Diffusion for Materials Generation [99.71001883652211]
我々は任意の結晶構造(ユニマット)を表現できる統一された結晶表現を開発する。
UniMatはより大型で複雑な化学系から高忠実度結晶構造を生成することができる。
材料の生成モデルを評価するための追加指標を提案する。
論文 参考訳(メタデータ) (2023-10-18T15:49:39Z) - Materials Informatics Transformer: A Language Model for Interpretable
Materials Properties Prediction [6.349503549199403]
本稿では,材料特性予測のための材料情報変換器(MatInFormer)について紹介する。
具体的には、関連する空間群情報のトークン化を通じて結晶学の文法を学習する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-30T18:34:55Z) - Large Language Models as Master Key: Unlocking the Secrets of Materials
Science with GPT [9.33544942080883]
本稿では,物質科学におけるデバイスレベルでの情報抽出の複雑さに対処するため,構造化情報推論(SII)と呼ばれる自然言語処理(NLP)タスクを提案する。
我々は、既存のペロブスカイト型太陽電池FAIRデータセットに91.8%のF1スコアでGPT-3をチューニングし、リリース以来のデータでデータセットを拡張した。
また、太陽電池の電気性能を予測する実験を設計し、大規模言語モデル(LLM)を用いてターゲットパラメータを持つ材料や装置の設計を行った。
論文 参考訳(メタデータ) (2023-04-05T04:01:52Z) - DA-VEGAN: Differentiably Augmenting VAE-GAN for microstructure
reconstruction from extremely small data sets [110.60233593474796]
DA-VEGANは2つの中心的なイノベーションを持つモデルである。
$beta$-variational autoencoderはハイブリッドGANアーキテクチャに組み込まれている。
このアーキテクチャに特化して、独自の差別化可能なデータ拡張スキームが開発されている。
論文 参考訳(メタデータ) (2023-02-17T08:49:09Z) - Advancing Reacting Flow Simulations with Data-Driven Models [50.9598607067535]
マルチ物理問題における機械学習ツールの効果的な利用の鍵は、それらを物理モデルとコンピュータモデルに結合することである。
本章では, 燃焼システムにおけるデータ駆動型低次モデリングの適用可能性について概説する。
論文 参考訳(メタデータ) (2022-09-05T16:48:34Z) - Predicting Mechanically Driven Full-Field Quantities of Interest with
Deep Learning-Based Metamodels [0.0]
メカニカルMNISTデータセットを拡張して,全フィールドQoI予測の検証を可能にする。
マルチRes-WNetアーキテクチャを用いたフルフィールドQoI予測のための強力なベースライン性能を確立する。
論文 参考訳(メタデータ) (2021-07-24T00:43:49Z) - BIGDML: Towards Exact Machine Learning Force Fields for Materials [55.944221055171276]
機械学習力場(MLFF)は正確で、計算的で、データ効率が良く、分子、材料、およびそれらのインターフェースに適用できなければならない。
ここでは、Bravais-Inspired Gradient-Domain Machine Learningアプローチを導入し、わずか10-200原子のトレーニングセットを用いて、信頼性の高い力場を構築する能力を実証する。
論文 参考訳(メタデータ) (2021-06-08T10:14:57Z) - Intelligent multiscale simulation based on process-guided composite
database [0.0]
本稿では、プロセスモデリング、材料均質化、機械学習に基づく統合データ駆動モデリングフレームワークを提案する。
我々は, 自動車, 航空宇宙, エレクトロニクス産業において重要な材料システムとして認識されてきた, 射出成形した短繊維強化複合材料に興味を持っている。
論文 参考訳(メタデータ) (2020-03-20T20:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。