論文の概要: Further Exploration of Precise Binding Energies from Physics Informed Machine Learning and the Development a Practical Ensemble Model
- arxiv url: http://arxiv.org/abs/2503.11066v1
- Date: Fri, 14 Mar 2025 04:19:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:05:39.798587
- Title: Further Exploration of Precise Binding Energies from Physics Informed Machine Learning and the Development a Practical Ensemble Model
- Title(参考訳): 物理インフォームド機械学習による精密結合エネルギーのさらなる探索と実践的アンサンブルモデルの開発
- Authors: I. Bentley, J. Tedder, M. Gebran, A. Paul,
- Abstract要約: 機械学習モデルに通知された16の新しい物理は、現代の質量モデルからのエネルギー残基の結合について訓練されている。
モデルはAME 2012データのサブセットでトレーニングされ、AME 2020データのサブセットで検証されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Sixteen new physics informed machine learning models have been trained on binding energy residuals from modern mass models that leverage shape parameters and other physical features. The models have been trained on a subset of AME 2012 data and have been verified with a subset of the AME 2020 data. Among the machine learning approaches tested in this work, the preferred approach is the least squares boosted ensemble of trees which appears to have a superior ability to both interpolate and extrapolate binding energy residuals. The machine learning models for four mass models created from the ensemble of trees approach have been combined to create a composite model called the Four Model Tree Ensemble (FMTE). The FMTE model predicts binding energy values from AME 2020 with a standard deviation of 76 keV and a mean deviation of 34 keV for all nuclei with N > 7 and Z > 7. A comparison with new mass measurements for 33 isotopes not included in AME 2012 or AME 2020 indicates that the FMTE performs better than all mass models that were tested.
- Abstract(参考訳): 16種類の新しい物理情報を持つ機械学習モデルは、形状パラメータやその他の物理的特徴を利用する現代の質量モデルからの結合エネルギー残基について訓練されている。
モデルはAME 2012データのサブセットでトレーニングされ、AME 2020データのサブセットで検証されている。
この研究でテストされた機械学習アプローチの中で、好まれるアプローチは、結合エネルギー残基の補間と外挿の両方に優れた能力を持つように見える木の最小2乗アップアンサンブルである。
木々のアンサンブルから生成された4つのマスモデルの機械学習モデルを組み合わせて、Four Model Tree Ensemble (FMTE)と呼ばれる複合モデルを開発した。
FMTEモデルは,N>7およびZ>7の全核に対する標準偏差76keV,平均偏差34keVでAME 2020の結合エネルギー値を予測する。
AME 2012やAME 2020に含まれていない33個の同位体の新しい質量測定と比較すると、FMTEはテストされた全ての質量モデルよりも優れた性能を示している。
関連論文リスト
- GRIN: GRadient-INformed MoE [132.87651078514122]
Mixture-of-Experts (MoE)モデルは、エキスパートルーティングによるスパース計算により、密度の高いモデルよりも効果的にスケールする。
エキスパートルーティングのためのスパース勾配推定を組み込んだGRIN(GRadient-Informed MoE Training)を導入する。
我々のモデルは6.6Bの活性化パラメータしか持たないが、7Bの密度モデルより優れており、同じデータで訓練された14Bの密度モデルの性能と一致している。
論文 参考訳(メタデータ) (2024-09-18T17:00:20Z) - Compact Language Models via Pruning and Knowledge Distillation [61.56557874432008]
ミニトロンモデルでは、スクラッチからのトレーニングに比べてMMLUスコアが最大16%改善している。
すでにトレーニング済みの15Bモデルから8Bと4Bモデルを抽出するには、スクラッチからトレーニングするよりも、モデル毎のトレーニングトークンを最大40倍少なくする必要があります。
論文 参考訳(メタデータ) (2024-07-19T21:47:57Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Supplementation of deep neural networks with simplified physics-based
features to increase model prediction accuracy [0.0]
STEMアプリケーションの予測モデルを改善するために、補足的な物理ベースの機能がディープニューラルネットワーク(DNN)に導入された。
これらの追加機能は、さまざまな単一層と複数の層に注入され、4つの異なるデータセットサイズでトレーニングされる。
物理強化されたデータが複数の層に注入されると、エラーの33.2%から19.6%、34.9%から19.9%、35.8%から22.4%、および43.0%から28.4%がそれぞれ261、117、60、30のデータセットサイズで達成される。
論文 参考訳(メタデータ) (2022-04-14T05:44:59Z) - Integrating Physics-Based Modeling with Machine Learning for Lithium-Ion Batteries [4.946066838162504]
本稿では,LiBの高精度モデリングを実現するために,物理モデルと機械学習を統合する2つの新しいフレームワークを提案する。
これらのフレームワークは、物理モデルの状態情報の機械学習モデルに通知することで特徴付けられる。
この研究はさらに、老化を意識したハイブリッドモデリングの実施へと拡張され、予測を行うために健康状態に意識したハイブリッドモデルの設計につながった。
論文 参考訳(メタデータ) (2021-12-24T07:39:02Z) - Physics-informed linear regression is a competitive approach compared to
Machine Learning methods in building MPC [0.8135412538980287]
総じて, ビルのベースラインコントローラと比較して, 暖房・冷却エネルギーの低減効果が良好であることが示唆された。
また, 物理インフォームドARMAXモデルは, 計算負担が低く, 機械学習モデルと比較して, サンプル効率が優れていることも確認した。
論文 参考訳(メタデータ) (2021-10-29T16:56:05Z) - Prediction of liquid fuel properties using machine learning models with
Gaussian processes and probabilistic conditional generative learning [56.67751936864119]
本研究の目的は、代替燃料の物理的特性を予測するためのクロージャ方程式として機能する、安価で計算可能な機械学習モデルを構築することである。
これらのモデルは、MDシミュレーションのデータベースや、データ融合-忠実性アプローチによる実験的な測定を用いて訓練することができる。
その結果,MLモデルでは,広範囲の圧力および温度条件の燃料特性を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2021-10-18T14:43:50Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z) - Integrating Electrochemical Modeling with Machine Learning for
Lithium-Ion Batteries [0.0]
本稿では,リチウムイオン電池(LiB)の高精度モデリングを実現するために,物理モデルと機械学習を統合する新しい手法を提案する。
本稿では,1粒子モデルと熱力学(SPMT)をフィードフォワードニューラルネットワーク(FNN)とを混合して,LiBの動的挙動の物理インフォームド学習を行うアプローチに基づく2つのハイブリッド物理機械学習モデルを提案する。
論文 参考訳(メタデータ) (2021-03-22T04:53:38Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z) - Energy Predictive Models for Convolutional Neural Networks on Mobile
Platforms [0.0]
モバイルデバイスにディープラーニングモデルをデプロイする場合、エネルギー利用は重要な懸念事項である。
我々はJetson TX1とSnapdragon 820上に12の代表的なConvolutional NeuralNetworks(ConvNets)を用いて、完全な接続層とプール層のための層型予測モデルを構築した。
ハードウェアとソフトウェアの組み合わせによるテストConvNetの全体的なエネルギー予測において,精度は76%から85%,モデル複雑度は1。
論文 参考訳(メタデータ) (2020-04-10T17:35:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。