論文の概要: Monotonic Gaussian process for physics-constrained machine learning with
materials science applications
- arxiv url: http://arxiv.org/abs/2209.00628v1
- Date: Wed, 31 Aug 2022 14:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:22:20.621200
- Title: Monotonic Gaussian process for physics-constrained machine learning with
materials science applications
- Title(参考訳): 物質科学応用を用いた物理制約機械学習のための単調ガウス過程
- Authors: Anh Tran and Kathryn Maupin and Theron Rodgers
- Abstract要約: 物理に制約のある機械学習は、物理学の機械学習分野において重要なトピックとして浮上している。
物理制約を機械学習手法に組み込むことの最も大きな利点の1つは、結果のモデルがトレーニングするデータを大幅に少なくすることである。
本稿では,GPの定式化を3つの異なる材料データセット上で単調に制約する可能性について検討する。
- 参考スコア(独自算出の注目度): 3.222802562733787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physics-constrained machine learning is emerging as an important topic in the
field of machine learning for physics. One of the most significant advantages
of incorporating physics constraints into machine learning methods is that the
resulting model requires significantly less data to train. By incorporating
physical rules into the machine learning formulation itself, the predictions
are expected to be physically plausible. Gaussian process (GP) is perhaps one
of the most common methods in machine learning for small datasets. In this
paper, we investigate the possibility of constraining a GP formulation with
monotonicity on three different material datasets, where one experimental and
two computational datasets are used. The monotonic GP is compared against the
regular GP, where a significant reduction in the posterior variance is
observed. The monotonic GP is strictly monotonic in the interpolation regime,
but in the extrapolation regime, the monotonic effect starts fading away as one
goes beyond the training dataset. Imposing monotonicity on the GP comes at a
small accuracy cost, compared to the regular GP. The monotonic GP is perhaps
most useful in applications where data is scarce and noisy, and monotonicity is
supported by strong physical evidence.
- Abstract(参考訳): 物理制約付き機械学習は、物理学の機械学習分野において重要なトピックとして浮上している。
物理制約を機械学習手法に組み込むことの最も大きな利点の1つは、結果のモデルがトレーニングするデータを大幅に少なくすることである。
物理ルールを機械学習の定式化自体に組み込むことで、予測は物理的に妥当であることが期待される。
ガウス過程(GP)はおそらく、小さなデータセットの機械学習において最も一般的な方法の1つである。
本稿では, 実験データと計算データを用いて, 3つの異なる材料データセット上で, 単調性を持つgp定式化を制約する可能性について検討する。
単調GPは通常のGPと比較され、後部分散の顕著な減少が観察された。
単調gpは補間系において厳密に単調であるが、補間系では、トレーニングデータセットを超えて単調効果が消失し始める。
GPに単調性を持たせることは、通常のGPに比べて精度が低い。
モノトニックGPは、データが乏しくノイズの多いアプリケーションにおいて最も有用であり、強い物理的証拠によってモノトニック性が支持される。
関連論文リスト
- Self-Consistency Training for Density-Functional-Theory Hamiltonian Prediction [74.84850523400873]
ハミルトン予測は自己整合性理論を持ち,自己整合性トレーニングを提案する。
これにより、大量のラベルのないデータでモデルをトレーニングできるため、データの不足に対処できる。
一連のクエリに対してDFT計算を補正するため、教師付きトレーニングのためのラベルを生成するのにDFTを実行するより効率的である。
論文 参考訳(メタデータ) (2024-03-14T16:52:57Z) - Exact Inference for Continuous-Time Gaussian Process Dynamics [6.941863788146731]
実際には、真のシステムはよく知られておらず、測定データから学ぶ必要がある。
ガウス過程(GP)力学モデル学習におけるほとんどの手法は、一段階先進予測に基づいて訓練されている。
このような評価に対して,フレキシブルな推論スキームを導出する方法を示す。
論文 参考訳(メタデータ) (2023-09-05T16:07:00Z) - Controlling dynamical systems to complex target states using machine
learning: next-generation vs. classical reservoir computing [68.8204255655161]
機械学習を用いた非線形力学系の制御は、システムを周期性のような単純な振る舞いに駆動するだけでなく、より複雑な任意の力学を駆動する。
まず, 従来の貯水池計算が優れていることを示す。
次のステップでは、これらの結果を異なるトレーニングデータに基づいて比較し、代わりに次世代貯水池コンピューティングを使用する別のセットアップと比較する。
その結果、通常のトレーニングデータに対して同等のパフォーマンスを提供する一方で、次世代RCは、非常に限られたデータしか利用できない状況において、著しくパフォーマンスが向上していることがわかった。
論文 参考訳(メタデータ) (2023-07-14T07:05:17Z) - Linear Time GPs for Inferring Latent Trajectories from Neural Spike
Trains [7.936841911281107]
我々は,Hida-Mat'ernカーネルと共役変分推論(CVI)を利用した潜在GPモデルの一般的な推論フレームワークであるcvHMを提案する。
我々は任意の確率で線形時間複雑性を持つ潜在神経軌道の変分推定を行うことができる。
論文 参考訳(メタデータ) (2023-06-01T16:31:36Z) - Weighted Ensembles for Active Learning with Adaptivity [60.84896785303314]
本稿では,ラベル付きデータに漸進的に適応した重み付きGPモデルのアンサンブルについて述べる。
この新しいEGPモデルに基づいて、不確実性および不一致ルールに基づいて、一連の取得関数が出現する。
適応的に重み付けされたEGPベースの取得関数のアンサンブルも、さらなる性能向上のために導入されている。
論文 参考訳(メタデータ) (2022-06-10T11:48:49Z) - Equivariant Graph Mechanics Networks with Constraints [83.38709956935095]
本稿では,グラフ力学ネットワーク(GMN)を提案する。
GMNは、一般化された座標により、構造体の前方運動学情報(位置と速度)を表す。
大規模な実験は、予測精度、制約満足度、データ効率の観点から、最先端のGNNと比較してGMNの利点を支持する。
論文 参考訳(メタデータ) (2022-03-12T14:22:14Z) - AutoIP: A United Framework to Integrate Physics into Gaussian Processes [15.108333340471034]
あらゆる微分方程式をガウス過程に統合できる枠組みを提案する。
本手法は,シミュレーションと実世界の応用の両方において,バニラGPの改善を示す。
論文 参考訳(メタデータ) (2022-02-24T19:02:14Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Sparse Gaussian Process Variational Autoencoders [24.86751422740643]
既存のGP-DGMにおける推論のアプローチは、点に基づくスパースGP近似をサポートしない。
我々は,スパースGP近似のパラメータ化に部分的推論ネットワークを用いることで特徴付けられるスパースガウス過程変動オートエンコーダ(GP-VAE)を開発した。
論文 参考訳(メタデータ) (2020-10-20T10:19:56Z) - Modulating Scalable Gaussian Processes for Expressive Statistical
Learning [25.356503463916816]
ガウス過程(GP)は、入力と出力の間の統計的関係を学ぶことに興味がある。
本稿では,非定常ヘテロセダスティックGP,GPと潜在GPの混合を含む,スケーラブルなGPパラダイムについて検討し,よりリッチでガウス的でない統計表現を学習するために,出力や入力を変調する潜在変数を導入する。
論文 参考訳(メタデータ) (2020-08-29T06:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。