論文の概要: Extrapolative ML Models for Copolymers
- arxiv url: http://arxiv.org/abs/2409.09691v1
- Date: Sun, 15 Sep 2024 11:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 19:38:21.010533
- Title: Extrapolative ML Models for Copolymers
- Title(参考訳): コポリマーの補間MLモデル
- Authors: Israrul H. Hashmi, Himanshu, Rahul Karmakar, Tarak K Patra,
- Abstract要約: 機械学習モデルは、材料特性の予測に徐々に使われてきた。
これらのモデルは本質的に補間的であり、物質の既知の特性範囲外の候補を探索するための有効性は未解決である。
本稿では,MLモデルの外挿能力,トレーニングデータセットのサイズと範囲,学習アプローチとの関係について検討する。
- 参考スコア(独自算出の注目度): 1.901715290314837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models have been progressively used for predicting materials properties. These models can be built using pre-existing data and are useful for rapidly screening the physicochemical space of a material, which is astronomically large. However, ML models are inherently interpolative, and their efficacy for searching candidates outside a material's known range of property is unresolved. Moreover, the performance of an ML model is intricately connected to its learning strategy and the volume of training data. Here, we determine the relationship between the extrapolation ability of an ML model, the size and range of its training dataset, and its learning approach. We focus on a canonical problem of predicting the properties of a copolymer as a function of the sequence of its monomers. Tree search algorithms, which learn the similarity between polymer structures, are found to be inefficient for extrapolation. Conversely, the extrapolation capability of neural networks and XGBoost models, which attempt to learn the underlying functional correlation between the structure and property of polymers, show strong correlations with the volume and range of training data. These findings have important implications on ML-based new material development.
- Abstract(参考訳): 機械学習モデルは、材料特性の予測に徐々に使われてきた。
これらのモデルは、既存のデータを用いて構築することができ、天文学的に大きい物質の物理化学的空間を迅速にスクリーニングするのに有用である。
しかし、MLモデルは本質的に補間的であり、材料の既知の特性範囲外の候補を探索するための有効性は未解決である。
さらに,機械学習モデルの性能は,学習戦略やトレーニングデータの量と密接に関連している。
本稿では,MLモデルの外挿能力,トレーニングデータセットのサイズと範囲,学習アプローチとの関係について検討する。
本研究では,コポリマーの性質をモノマーの配列の関数として予測する標準的な問題に着目する。
高分子構造間の類似性を学習する木探索アルゴリズムは外挿に非効率であることがわかった。
逆に、高分子の構造と性質の間の機能的相関を学習しようとするニューラルネットワークとXGBoostモデルの補間能力は、トレーニングデータの量と範囲と強い相関関係を示す。
これらの知見はMLベースの新しい材料開発に重要な意味を持つ。
関連論文リスト
- Achieving interpretable machine learning by functional decomposition of black-box models into explainable predictor effects [4.3500439062103435]
ブラックボックス予測の関数分解のための新しい手法を提案する。
加法回帰モデルと同様に,本手法は主特徴量の方向と強度に関する洞察を与える。
論文 参考訳(メタデータ) (2024-07-26T10:37:29Z) - When does deep learning fail and how to tackle it? A critical analysis
on polymer sequence-property surrogate models [1.0152838128195467]
ディープラーニングモデルは、高分子特性の予測において人気と有効性を高めている。
これらのモデルは、既存のデータを用いて構築することができ、ポリマー特性の迅速な予測に有用である。
しかし,ディープラーニングモデルの性能は,そのトポロジやトレーニングデータの量と密接に関連している。
論文 参考訳(メタデータ) (2022-10-12T23:04:10Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Enhancing Mechanical Metamodels with a Generative Model-Based Augmented
Training Dataset [0.7734726150561089]
組織の機械的挙動を定義する上で重要な役割を果たしているミクロ構造パターンをシミュレートすることは困難である。
本研究では,限られた入力パターンデータセットを増大させるツールとして,機械学習に基づく生成モデルの有効性について検討する。
Cahn-Hilliardパターンに基づく有限要素解析シミュレーションのオープンアクセスデータセットを作成しました。
論文 参考訳(メタデータ) (2022-03-08T16:15:54Z) - Bayesian Active Learning for Discrete Latent Variable Models [19.852463786440122]
アクティブラーニングは、モデルのパラメータに適合するために必要なデータ量を削減しようとする。
潜在変数モデルは神経科学、心理学、その他の様々な工学、科学分野において重要な役割を果たす。
論文 参考訳(メタデータ) (2022-02-27T19:07:12Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Generalized Matrix Factorization: efficient algorithms for fitting
generalized linear latent variable models to large data arrays [62.997667081978825]
一般化線形潜在変数モデル(GLLVM)は、そのような因子モデルを非ガウス応答に一般化する。
GLLVMのモデルパラメータを推定する現在のアルゴリズムは、集約的な計算を必要とし、大規模なデータセットにスケールしない。
本稿では,GLLVMを高次元データセットに適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T04:28:19Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。